精品免费久久久久久久_一区二区免费国产在线观看_日本一区二区三区在线观看网站_欧美日韩国产精品自在自线_1区2在线_国产精品女同事视频_亚洲国产天堂久久久_色色色撸_精品久久久久久国产91_亚洲国产精品特色大片观看完整版

首頁 > 新聞 > 智能 > 正文

別吹了,自動駕駛大模型 PPT 們_世界今頭條

2023-06-02 22:28:01來源:ZAKER科技  

本文來自微信公眾號:宇多田(ID:hellomusk),作者:宇多田,題圖來自:《末路狂花》

人工智能產(chǎn)業(yè)(包括自動駕駛)有一個不可忽視的人性缺陷:

除了天然受制于技術(shù)語言,也有不少人故意把東西說得模棱兩可、艱澀難懂、天下第一……以達到讓人不明覺厲、讓資本掏錢的目的。

有些自動駕駛公司就善于此道。


(資料圖)

或者說,如今市面上,把汽車工業(yè)與 " 超大模型 ""GPT" 以及 "AIGC" 強綁定的說辭,基本可以歸于 " 非蠢即壞 " 的商業(yè)炒作行徑。

特別是,在 " 大模型 " 到底有多大都沒法定義的情況下,有人拿出幾億參數(shù)值說大,有人搬出幾十億也說大,而 GPT2 的 " 大 " 就有 150 億,GPT3 則是 1750 億。

當(dāng)然,大不大無所謂,很多人最關(guān)心的問題是,開始有公司向汽車產(chǎn)業(yè)推出所謂的自動駕駛 GPT,到底有什么用?

答案是,或許真的沒太多用處。

首先,就像寫 Paper 占坑一樣,它的確有一小部分研究價值,屬于學(xué)術(shù)界的任務(wù)

其次,忽悠資本,因為不少資本會對汽車產(chǎn)業(yè)與大模型的雙倍規(guī)模與估值買賬。

但事實上,包括自動駕駛產(chǎn)業(yè)與深度學(xué)習(xí)圈,許多開發(fā)者們對 " 自動駕駛 GPT" 的說法很不認同,甚至是極為惱火的。

我們請教了多位曾在大廠、中美科技獨角獸做自動駕駛研發(fā)的資深工程師,以及包括 OEM 在內(nèi)的汽車產(chǎn)業(yè)人士看法,再結(jié)合部分博客文章,總結(jié)了一些觀點,或許會對汽車工業(yè)、資本以及更廣闊的大眾群體有一些啟發(fā)。

把 GPT 吹上車

以某家公司給出的 " 自動駕駛 GPT 產(chǎn)品 " 為例,其神經(jīng)網(wǎng)絡(luò)概念圖讓內(nèi)行都一頭霧水,不知所云。

此外,1200 億的參數(shù)量的確夠大,相當(dāng)于對標(biāo)了 GPT3。這意味著支撐這龐大數(shù)據(jù)量訓(xùn)練的硬件資源支持,同樣不菲。

但是,他們雖背靠主機廠,卻并沒有自建昂貴的數(shù)據(jù)中心,而是跟其他企業(yè)一樣租用云上資源。很明顯,這是將某大廠云服務(wù)整合包裝為自己的數(shù)據(jù)基礎(chǔ)設(shè)施服務(wù)體系。

其次,最重要的,大模型到底怎么落地?

把跟 ChatGPT 一樣的 " 黑匣子 " 塞進汽車?yán)铮鰪?" 感知、規(guī)劃到?jīng)Q策 "(這是自動駕駛技術(shù)三個組成部分)的端到端輸出?

從這一方向,各方非常嚴(yán)謹?shù)乇硎荆壳半x落地非常遙遠。

ChatGPT 有著自己天然的生存環(huán)境,那就是昂貴的數(shù)據(jù)中心里。而所有關(guān)于 AIGC 的應(yīng)用都要跟數(shù)據(jù)中心聯(lián)網(wǎng),這沒有任何問題——在光纜的連接體系里,做到極快反應(yīng)。

但作為大型移動設(shè)備,車唯一靠的就是無線,但目前連 5G 也非常不穩(wěn)定。所以,包括特斯拉在內(nèi),大家都只能選擇走一條路——

將高性能且輕量化的算法模型,塞進一枚性價比足夠高的芯片里。

本質(zhì)上,英偉達從 Tegra 2、Xavier,過渡到 Orin,再到 2000Tops 的 Thor,算力的確是沿著自動駕駛 AI 算法模型在車內(nèi)的瘋狂擴充與變化而一路往上爬的。

而估算一下,GPT3 需要的算力至少是 Thor 的 10 的 N 次方倍。

當(dāng)然,就像 GPT3.5 開源之后,有開發(fā)者已采用量化技術(shù)用蘋果 M2 芯片運行起 ChatGPT,所以,不排除未來有人會把它塞進英偉達的芯片里。

但是,除去車輛感知、規(guī)劃與決策過程本身的復(fù)雜性,汽車工業(yè)瘋狂追求的性價比、以及延遲兩秒就會出人命的嚴(yán)苛交通環(huán)境,對一切 " 不可解釋性 " 有著天然的回避姿態(tài)。因此,業(yè)內(nèi)認為,可行的時間點極為遙遠。(當(dāng)然,這家公司說自己的模型對于駕駛策略是可解釋的,請拿出更詳細的證據(jù)。)

目前來看,自動駕駛前裝市場普遍情況是:" 唯有‘感知’模塊用上了模型 "。

業(yè)內(nèi)清楚,感知最好做,且各家已成功落地——從 CNN(卷積神經(jīng)網(wǎng)絡(luò))開始,它就是一套相對成熟的流水線。而芯片里的 GPU 部分也基本被 " 感知 " 占用。

當(dāng)然," 決策 " 與 " 規(guī)劃 " 兩個部分,并非沒有人做 AI 化嘗試,只是汽車工業(yè)大多在當(dāng)下,依然采用最為穩(wěn)健的方法——

一系列來自機器人等領(lǐng)域的經(jīng)典規(guī)則理論。譬如以 " 蒙特卡羅搜索樹 " 為代表的啟發(fā)式搜索算法。

以 " 規(guī)劃 " 為例,其上車最常見的方式是把 " 縱向規(guī)劃 " 和 " 橫向規(guī)劃 " 分開,做 " 時空分離 "。而在這一點的創(chuàng)新上,就分出了幾個 " 流派 " ——

以 B 大廠與蘇 Q 廠為代表,做時空聯(lián)合規(guī)劃。相當(dāng)于把縱向控制與橫向控制的問題結(jié)合在一起,更容易搜索出全局最優(yōu)值。

這個流派的優(yōu)點是,在面對極為困難或復(fù)雜場景,局部最優(yōu)算法很難搜索出一個更智能路徑,但全局可能性更大。但缺點是占用更多算力。

以蘇 M 廠等很多從深度學(xué)習(xí)領(lǐng)域 " 出道 " 的公司為代表,在經(jīng)典決策規(guī)劃里融入 AI 算法,把其中一部分模塊用 AI 算法替代掉,而非上來就做大一統(tǒng)。

的確,五六年前 " 計算機視覺 " 的大火,早就證明了深度學(xué)習(xí)具備巨大的應(yīng)用潛力。但它的缺點也是顯而易見的—— " 不可解釋性 ",以及通過大量資源投入來持續(xù)燃燒數(shù)據(jù)。

因此,要想上車,大部分企業(yè)在努力采用折中的方式——經(jīng)典理論輔以 AI 算法,既保留經(jīng)典方法的穩(wěn)定性,又能提升性能表現(xiàn)。

" 譬如,規(guī)劃里的‘路徑生成’,就可能用 AI 做替代;而路徑的選擇、判定以及決策,以及后面的縱向規(guī)劃,仍基于規(guī)則去做,形成一種復(fù)合方法。"

因此,大模型當(dāng)然是一個終極理想狀態(tài),但上車的最好方法卻是 " 分步驟推進 ",與成本之間做更多權(quán)衡。

當(dāng)然,如今也有高端玩家們已經(jīng)在研究 " 單模型多任務(wù) " 的所謂 " 大一統(tǒng) " 形式,不過一切沒有定論。

大小可能不重要

我們從來都沒想到,就像當(dāng)年 " 自動駕駛分級 " 概念的模糊不清,讓國內(nèi)不少公司鉆過空子一樣;大模型這個 " 大 " 竟開始也被鉆空子——

你有 10 億,我有 100 億,他有 1000 億參數(shù)。

然而,在國外,對大模型的 " 大小 " 雖然有討論,卻從來不是重點。況且,國外工業(yè)界已經(jīng)有了" 去大用小 "的勢頭。因為 " 大模型 " 絕不是越大越好,越大就意味著越不透明,越具有排它性。

包括蘇黎世聯(lián)邦理工大學(xué)的科學(xué)家在內(nèi),一群年輕學(xué)者已發(fā)起一個叫做 "BabyLM" 的迷你模型挑戰(zhàn)賽,用規(guī)模為大型語言模型千分之一(一億參數(shù)左右)做更適用工業(yè)界的模型。

此外,2022 年,諸多國內(nèi)自動駕駛公司蹭的所謂 "Transformer" 大模型,更多指代的,是包括 GPT 在內(nèi)諸多大模型背后的深度學(xué)習(xí)基礎(chǔ)架構(gòu),而非僅指代大模型本身。

它最早出現(xiàn)在 2017 年谷歌的論文里。但這個被常用在自然語言處理(NLP)的 Transformer 模型,之所以突然在自動駕駛視覺界火了,是因為特斯拉將這一深度學(xué)習(xí)模型的 " 原理 ",極具創(chuàng)造性地用在了 " 圖像空間轉(zhuǎn)化為矢量空間 " 的感知預(yù)測中。

簡單來說,特斯拉工程師思考的是,既然這是一個優(yōu)秀的語言翻譯模型,那么為何不能將 " 攝像頭獲取的圖像空間‘翻譯’為 3D 矢量空間 "?

所以,Transformer 發(fā)源于 NLP 但轉(zhuǎn)入了 CV(計算機視覺);而 2023 年最火的 BEV 大模型,則是基于 Transformer 在自動駕駛領(lǐng)域的衍生物。

如果感興趣,可以直接看 Medium 上關(guān)于特斯拉 FSD 的技術(shù)博客。工程師全程從沒提過所謂的 BEV 模型到底有多大(雖然 BEV 被印證的確是燒數(shù)據(jù)的),而是設(shè)法解決目前車載攝像頭數(shù)據(jù)融合產(chǎn)生的問題——

純攝像頭系統(tǒng)對閉塞區(qū)域與大型物體的預(yù)測結(jié)果比較糟糕,那么便從神經(jīng)網(wǎng)絡(luò)源頭改變算法模型的設(shè)計理念——從圖像過渡至 BEV。

效果也確實有了質(zhì)的提升。

事實上,特斯拉更多值得稱道的,是對各種各樣已存的如 RNN、LSTM、RegNet(上圖)等普通模型進行創(chuàng)新,且把它們的潛力發(fā)揮到極致;

同時,強大的工程能力,又讓特斯拉把這些模型都塞進了車?yán)铩?/p>

" 特斯拉是在從大模型原理入手,去試圖做一些有益于自動駕駛整個模型的設(shè)計,同時又考慮到汽車必要的輕量化和小型化,再結(jié)合自己的 AI 芯片(TRIP)工藝往車上搬。

我認為這是一件更趨向于實干的事情,而不是像國內(nèi)一些公司吹牛蹭熱點。"

從 1 到 1.X?

不能上車,那么大模型做離線支持的" 數(shù)據(jù)閉環(huán) "工作總可以吧?

" 數(shù)據(jù)閉環(huán) " 這個概念,可以參考被說爛了的特斯拉 Autopilot 數(shù)據(jù)引擎框架——

確認模型誤差、數(shù)據(jù)標(biāo)注和清洗、模型訓(xùn)練,再到重新部署。

與此同時,全球各地的特斯拉車輛源源不斷的回傳數(shù)據(jù)進入這套流程,使之迅速流轉(zhuǎn)起來,形成一套閉環(huán)系統(tǒng)。

但有趣的是,沒有 " 大模型 ",這些工作也可以做,不是非大模型介入不可。

譬如,數(shù)據(jù)閉環(huán)里的 " 預(yù)標(biāo)注 ",國內(nèi)無論是早期的 B 大廠,還是 H 大廠的某生物工具鏈,做的這套東西已經(jīng)非常成熟,那么大模型的 " 增益 " 就有待評估,沒有 PPT 們渲染的那么厲害。

實際上,數(shù)據(jù)閉環(huán)的概念既簡單又復(fù)雜。

簡單在于,它可以被直接看做是" 錘煉算法的大型基礎(chǔ)設(shè)施 ",從它里面出來的模型上車后足夠智能,足夠見多識廣。

而復(fù)雜之處在于,它的每個環(huán)節(jié),幾乎可以作為一個小型創(chuàng)業(yè)項目——

如何做到樣本的自動化挖掘,如何清洗掉冗余數(shù)據(jù)留下最有營養(yǎng)的部分,如何做好數(shù)據(jù)的冷存儲與熱存儲?如何分門別類組織好數(shù)據(jù)?如何做到更有效的預(yù)標(biāo)注……

所以,這套閉環(huán)的工程量極為龐大,每個環(huán)節(jié)都需要專門的人才維護。

而對于自動駕駛創(chuàng)業(yè)公司來說,由于極度燒錢,一般會選擇" 把 A 部分做好,把 B 部分外包出去 "的輕量化模式,有強項也有短板。

目前,雖然各家東西細節(jié)無從比較,但 L4 獨角獸 P 廠的數(shù)據(jù)閉環(huán)工具鏈 "CQ",竟然得到了業(yè)內(nèi)不錯的評價。

對于這只早期 L4 巨獸,不談商業(yè)模式,被認為 " 在構(gòu)建基礎(chǔ)設(shè)施上的積累比較厚實 ",是一家在技術(shù)層面有真東西的企業(yè)。

此外,維持這套東西的運轉(zhuǎn),必然需要投喂更多的新鮮血液——數(shù)據(jù)與人才。因此,不是誰都能玩得起。

而特斯拉與比亞迪,是被認為最有可能把這個東西做好的商業(yè)組織。

只不過,基于人工智能的特性,數(shù)據(jù)閉環(huán)短期內(nèi)是看不到成效的。它更像是春播秋收,把該澆的水、該施的肥、該播的種都做到位,不會立竿見影且巨燒資源,但效果出現(xiàn)后,便是馬太效應(yīng)形成的開始。

因此,要比大模型在數(shù)據(jù)閉環(huán)上的應(yīng)用,不如比誰更有錢。

寫在最后

當(dāng)然,以上內(nèi)容無意在狙擊誰,也無意表揚誰(否則不會用字母指代),而是希望產(chǎn)業(yè)能回到一個正常的對比參照系內(nèi),以及重點放在實際效果上。

以及,建議企業(yè)把辦公室內(nèi)的 " 牌匾 " 換成特斯拉的成功三要素:

堅持第一原則思考方式,工程能力,以及執(zhí)行力。

本文來自微信公眾號:宇多田(ID:hellomusk),作者:宇多田

關(guān)鍵詞:

責(zé)任編輯:hnmd003

相關(guān)閱讀

相關(guān)閱讀

精彩推送

推薦閱讀