精品免费久久久久久久_一区二区免费国产在线观看_日本一区二区三区在线观看网站_欧美日韩国产精品自在自线_1区2在线_国产精品女同事视频_亚洲国产天堂久久久_色色色撸_精品久久久久久国产91_亚洲国产精品特色大片观看完整版

首頁 > 新聞 > 智能 > 正文

華為版 ChatGPT 將于 7 月初發(fā)布,名為“盤古 Chat ” 環(huán)球快消息

2023-06-03 15:28:29來源:ZAKER科技  

(圖片來源:鈦媒體 App 編輯拍攝)

6 月 3 日消息,鈦媒體 App 近日從華為內(nèi)部獨家獲悉,華為公司將發(fā)布一款直接對標(biāo) ChatGPT 的多模態(tài)千億級大模型產(chǎn)品,名為 " 盤古 Chat"。

預(yù)計華為盤古 Chat 將于今年 7 月 7 日舉行的華為云開發(fā)者大會 ( HDC.Cloud 2023 ) 上對外發(fā)布以及內(nèi)測,產(chǎn)品主要面向 To B/G 政企端客戶。


(相關(guān)資料圖)

這意味著,在國產(chǎn)大模型軍備競賽中,繼阿里、百度之后,又一重要科技巨頭入局?;谌A為的技術(shù)能力,盤古 Chat 有望成為國內(nèi)技術(shù)能力最強的 ChatGPT 產(chǎn)品,同時華為生態(tài)產(chǎn)業(yè)鏈企業(yè)也將因此受益。

據(jù)悉,盤古大模型于 2020 年 11 月在華為云內(nèi)部立項成功。對于盤古大模型定位,華為內(nèi)部團隊確立了三項最關(guān)鍵的核心設(shè)計原則:一是模型要大,可以吸收海量數(shù)據(jù);二是網(wǎng)絡(luò)結(jié)構(gòu)要強,能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場景。

2021 年 4 月,盤古大模型正式對外發(fā)布。其中,盤古 NLP 大模型是首個干億參數(shù)中文預(yù)訓(xùn)練大模型,CV 大模型則首次達到 30 億參數(shù)。2022 年 4 月,華為盤古升級到 2.0,發(fā)布層次化開發(fā)方案 ( LO, L1,L2) ,打造工業(yè)級盤古大模型。

根據(jù)華為云高管的演講 PPT 信息,目前華為 " 盤古系列 AI 大模型 " 基礎(chǔ)層主要包括 NLP 大模型、CV 大模型、以及科學(xué)計算大模型等,上層則是與合作伙伴開發(fā)的華為行業(yè)大模型。

華為云人工智能領(lǐng)域首席科學(xué)家田奇今年 4 月稱,盤古 NLP 大模型覆蓋的智能文檔檢索、智能 ERP、小語種大模型等落地領(lǐng)域,2022 年華為剛交付了一個阿拉伯語的千億參數(shù)大模型。在應(yīng)用方面,盤古大模型可以應(yīng)用于智能客服、機器翻譯、語音識別等多個領(lǐng)域,提供 AI 技術(shù)支持。

去年華為將盤古大模型在垂直產(chǎn)業(yè)領(lǐng)域落地應(yīng)用。一個例子是,基于盤古 AI 大模型,華為在礦山領(lǐng)域打造了首個 " 基于大模型的人工智能訓(xùn)練中心 ",實現(xiàn) Al 應(yīng)用 " 工業(yè)化 " 開發(fā),不僅降低成本——比人工核查節(jié)省 80%+、每噸成本降低 8 元 (年產(chǎn)能 260 萬噸),而且增加效益——防沖御壓比人工核查節(jié)省 80%+,提升效率——智能客戶效率提升 30%。

與其他廠商相比,華為的優(yōu)勢或在于擁有完整的產(chǎn)業(yè)鏈和較強的算力調(diào)配能力。據(jù)浙商證券此前披露,在訓(xùn)練千億參數(shù)的盤古大模型時,華為團隊調(diào)用了超過 2000 塊的昇騰 910 芯片,進行了超 2 個月的數(shù)據(jù)訓(xùn)練能力。華為內(nèi)部稱,每年大模型訓(xùn)練調(diào)用 GPU/TPU 卡超過 4000 片,3 年的大模型算力成本高達 9.6 億元人民幣。

東吳證券 3 月 27 日公布的研報中稱,華為盤古大模型的優(yōu)勢在于人才儲備和算力自主可控,有望成為國內(nèi)領(lǐng)先的大模型,其生態(tài)產(chǎn)業(yè)鏈標(biāo)的有望迎來加速發(fā)展,包括拓維信息、四川長虹、麒麟軟件(中國軟件)、統(tǒng)信軟件(誠邁科技)、麒麟信安等華為生態(tài)公司。國盛證券則認(rèn)為,華為盤古為首個多模態(tài)千億級大模型,有望賦能百業(yè)。

根據(jù)華為公布的一份論文數(shù)據(jù)顯示,華為盤古 PanGu- Σ 大模型參數(shù)最多為 1.085 萬億,基于華為自研的 MindSpore 框架開發(fā)。整體來看,PanGu- Σ 大模型在對話方面可能已接近 GPT-3.5 的水平。

值得注意的是,由于盤古大模型擁有超大規(guī)模的參數(shù),因此訓(xùn)練成本較高。盡管盤古大模型在中文語言的處理方面具有很高的準(zhǔn)確度和質(zhì)量,但在語義理解方面仍存在一定的局限性,尤其是在處理復(fù)雜的語言結(jié)構(gòu)和語義推理方面。同時,盤古 Chat 大模型也將面臨著行業(yè)激烈的競爭壓力,需要不斷優(yōu)化和提高模型的性能和質(zhì)量,才能以保持在市場中的領(lǐng)先地位。(本文首發(fā)鈦媒體 App,作者|林志佳)

關(guān)鍵詞:

責(zé)任編輯:hnmd003

相關(guān)閱讀

相關(guān)閱讀

精彩推送

推薦閱讀