欧美日韩电影精品视频_亚洲天堂一区二区三区四区_亚洲欧美日韩国产综合_日韩精品一区二区三区中文_為您提供優質色综合久久88色综合天天

您的位置:首頁 > 財經(jīng)觀察 >

鴻蒙4里的大模型,能否撐起華為的野心?

2023-08-16 10:31:07 來源:?AI新智能公眾號

評論

聲明:本文來自于微信公眾號 AI新智能(ID:alpAIworks),作者:舉大名耳,授權站長之家轉載發(fā)布。


(資料圖片僅供參考)

一個以大模型作為終極操作系統(tǒng)(AIOS)的AI時代,終將會統(tǒng)合分裂的物聯(lián)網(wǎng)市場。

這幾天,關于鴻蒙4的文章、報道,可謂沸沸揚揚。

一時間,就算是不關注AI賽道的人,都聽說了這個新系統(tǒng)里有個大模型,它大致相當于被升級、強化后的Siri。

比如能幫你生成點文章摘要、圖片,或是自動訂個酒店什么的。

但是,華為的野心,可不止是在手機里干點生成圖片、文字的小花活。

人家可是把萬物互聯(lián)的夢想,都寄托在了這個小小的AI之上了呢。

具體來說,就是以手機上的大模型為起點,不斷將智能化技術擴散到智能家居、智能汽車、甚至是智能城市之上。

如此,最后就能形成一個“萬物互聯(lián)”的超級終端。

其實,這不只是華為的野心,蘋果、高通、榮耀等大廠都進行了類似的布局。

畢竟,大模型與終端的結合,是下一階段AI戰(zhàn)場必爭的陣地。

然而,要知道,現(xiàn)在有點競爭力的通用大模型,體量和參數(shù),往往都是一千億規(guī)模往上的。

要想把這么一坨“龐然大物”塞進小小的手機,還要能保證性能,絕非易事。

如果關鍵的技術問題沒處理好,大模型終端化的夢想,最終將難免會淪為鏡花水月。

1

可靠性問題

要讓大模型進入終端,首先要解決的問題之一,就是輸出的可靠性問題。

畢竟,任何使用過大模型的人,幾乎都見識過各種各樣的幻覺和謬誤,而這樣的幻覺一旦出現(xiàn)在終端側,產(chǎn)生的損失和后果,往往比處理“案頭工作”時要嚴重得多。

例如,在鴻蒙4的發(fā)布會上,華為就介紹到:大模型AI小藝,會根據(jù)你的地點數(shù)據(jù)等信息為你個性化推薦信息。

以出國旅行為例,在出發(fā)前小藝會提醒你出行信息,出發(fā)后小藝會給你推薦翻譯等實用功能,到目的地后,則會展示當?shù)氐拿朗澈偷攸c導航。

然而,倘若處理不好可信、可控問題,一個可能出現(xiàn)的情況是:由于信息過時或錯誤,小藝告訴了你一個已經(jīng)變遷或不存在的地點。不知情的你被“帶偏”后,才恍然自己走了不少冤枉路。

同樣地,在智能駕駛領域,倘若車輛上的大模型在終端側輸出不可靠,就會導致規(guī)劃決策結果出現(xiàn)不合理、不符合交通規(guī)則的情況,影響車輛的行駛效率和安全性。

類似的情況,如果出現(xiàn)在2B端,只要存在1%的偏差,都將給企業(yè)埋下風險的種子,成為落地的門檻。

目前,關于大模型可信、可控方面的問題,學術界沒有完美解,只能在各個環(huán)節(jié)逐步逼近。

但有一點卻是業(yè)內的共識,那就是:預訓練數(shù)據(jù)越多、越廣,就越可以提高大模型的泛化能力和魯棒性,從而減少生成幻覺和錯誤的可能性。

在之前披露的信息中,華為對外宣稱自身的盤古大模型涉及項目超過1000個,除了學習大量通用知識外,盤古還深耕金融、政務、氣象、醫(yī)療、健康、互聯(lián)網(wǎng)、教育等行業(yè),每個行業(yè)數(shù)據(jù)量超過500億tokens。

從數(shù)據(jù)層面來看,可謂涵蓋面甚廣。

但需要注意的是,盤古大模型實際上分為了四個版本,分別是100億參數(shù)、380億參數(shù)、710億參數(shù)和1000億參數(shù)。

考慮到手機的硬件性能和運行環(huán)境,鴻蒙4中搭載的,很有可能是100億參數(shù)版本的盤古大模型。

想在這100億的數(shù)據(jù)規(guī)模上,保障大模型的準確性、可靠性,可能嗎?

對于這個問題,華為有兩種可能的解決方案:

首先一種,是直接將鴻蒙4中的大模型,變成一個看似通用的“專用”大模型。

這樣的思路,其實是一種小而精的策略。

因為在某些特定場景,預訓練數(shù)據(jù)的質量和相關性,遠比其數(shù)量和范圍要重要得多。

具體到手機方面,由于人們使用手機的場景、用途,都是相對比較固定的,例如查天氣、導航、訂外賣、訂酒店等,因此華為可以根據(jù)這些特定的“手機場景”,針對性地搜集相應的高質量數(shù)據(jù)。

而經(jīng)由這種高質量、高相關性數(shù)據(jù)訓練出來的緊湊型語言模型,有可能在特定任務和場景上表現(xiàn)得比大參數(shù)模型更出色。

而第二種方式,則是通過“壓縮”的方式,在不犧牲性能和精度的情況下,降低模型的參數(shù)。

2

化大為小

可以說,壓縮功力的強弱,直接關系到了端側大模型的可靠性、質量。也是大模型走向端側的必要條件。

因為只有把模型壓縮到了完全能在終端側運行,擺脫云端計算的地步,大模型才能適應更多對延遲性要求高的邊緣場景。

例如,智能汽車對于模型運行的可靠性和延遲要就非常高,在實時變化的路況中,如果在云端運行大模型,并且使用網(wǎng)絡把結果傳送到終端,肯定無法滿足智能汽車的需求。同時,完全終端化、本地化的運行方式,也是出于對用戶數(shù)據(jù)、隱私方面的一種考慮。

這也是為什么,頗為重視隱私的蘋果,也宣布自己將要發(fā)布的AppleGPT將采取完全本地化的方式運行。

同樣地,在鴻蒙4上,華為表示AI“小藝”相關的數(shù)據(jù)和學習的都是在端側推理,以保障用戶的安全和隱私。

既然“壓縮”是大模型終端化的必要條件,那么目前在這方面,華為和其他大廠的差距究竟如何呢?

在之前的WAIC大會上,高通展示的手機大模型,已經(jīng)能做到在安卓手機上,直接運行參數(shù)規(guī)模超過10億的StableDiffusion,而且生成效果也還過得去。

而這背后,靠的正是不俗的模型壓縮能力。

通過量化、壓縮、條件計算、神經(jīng)網(wǎng)絡架構搜索和編譯,高通在不犧牲太多精度的前提下對AI模型進行了縮減。

比如在在量化方面,高通將FP32模型量化壓縮到INT4模型,實現(xiàn)了64倍內存和計算能效提升。

在這方面,華為自身的昇騰模型壓縮工具,也提供了一系列的模型壓縮方法,根據(jù)量化方法不同,分為基于calibration的量化和基于retrain的量化。

而上述兩種量化方法,根據(jù)量化對象不同,分為權重量化和數(shù)據(jù)量化。

而具體來說,權重量化對模型影響不大,而數(shù)據(jù)量化對模型影響比較大。

這樣的影響,可以用一個形象的比喻來說明:

壓縮大模型就像切西瓜,而權重量化就像是把西瓜的種子變成整數(shù),數(shù)據(jù)量化就像是把西瓜的果肉和果汁變成整數(shù)。

一般人吃西瓜的時候,更在乎的往往是果肉,而不是種子。

同理,權重是模型的一部分,但不是最重要的部分,我們運行模型的時候,主要關注的是輸入輸出數(shù)據(jù)的準確性和多少。

也正因如此,在用戶可感知到的范圍內,權重量化對模型性能的影響是較小的。

而這也是為什么,谷歌、騰訊、百度等在將模型壓縮技術結合到移動端時,使用的也大多是權重量化。

例如騰訊提出的NCNN和MNN模型,主要就是存儲模型中各層的權重值。ncnn模型中含有擴展字段,用于兼容不同權重值的存儲方式。

在科技發(fā)展的路徑上,有一條真理,那就是:正確、合理的技術,往往都存在著一種趨同化的“最優(yōu)解”,很少會存在什么“秘技”。

說到這里,問題來了:既然在可預見的未來,各個大廠在模型壓縮、量化方面的技術,大體上都是趨同、相近的,那么在這場“終端AI”競賽中,真正決定性的制勝因素,究竟是什么?

3

總結

在終端大模型的較量中,除了模型壓縮、端側芯片外,最主要的因素,就剩下了終端軟件生態(tài)的搭建。

由于端側芯片實在是一個太大的話題,受于篇幅所限,此處不再贅述,將來會單獨用一整篇的內容加以分析。

這里主要重點說下終端軟件生態(tài)。

一個可以預見的未來是:由于終端設備的多樣性,碎片性,將來的終端大模型,必定會出現(xiàn)針對不同應用場景的“智能助理”。

例如,音箱中的智能助理,可以幫助我們管理智能家居;在工作場合,耳機中的智能助理可以作為秘書幫助處理會議紀要等工作。

在這種情況下,誰若能率先取得多模態(tài)方向上的突破,針對不同場景微調,提供多樣化、專屬化的智能助理,誰就能在終端大模型的長跑中,處于領先優(yōu)勢。

此外,考慮到手機、智能家居等終端設備,具有很強的“私有性”,因此,如何根據(jù)用戶的個人喜好和使用習慣,進行自適應學習,并提供個性化的建議和服務,就成了終端大模型能否長期陪伴用戶的關鍵因素。

而倘若上述問題,都得到了較好的解決,那么一個以大模型作為終極操作系統(tǒng)(AIOS)的AI時代,就遲早會到來。

到了那時,分散、割裂、碎片化的物聯(lián)網(wǎng)應用市場,也終將被大模型AIOS統(tǒng)合。

關鍵詞:

[責任編輯:]

相關閱讀