春節將至,中國人工智能(AI)公司密集發(fā)放節日大禮包,展現出2025年大模型競爭的新動(dòng)向。僅1月20日一天就有4家公司推出新品:深度求索公司DeepSeek發(fā)布了DeepSeek-R1模型,月之暗面公司Kimi推出了k1.5多模態(tài)思考模型,兩家公司新模型性能都對標OpenAI o1正式版。MiniMax海螺上線(xiàn)語(yǔ)音功能,字節豆包上線(xiàn)實(shí)時(shí)語(yǔ)音大模型,很明顯是在對標OpenAI的實(shí)時(shí)語(yǔ)音功能。
自2022年11月美國人工智能公司OpenAI發(fā)布GPT-3.0引燃全球AI大模型熱潮以來(lái),全球科技廠(chǎng)商紛紛入局,密集上線(xiàn)大模型。
OpenAI的火爆來(lái)自“大力出奇跡”路線(xiàn),以規模作為大模型的制勝法寶。但這也讓AI大模型的發(fā)展陷入了一個(gè)怪圈:為追求更高的性能,模型體積不斷膨脹,參數數量呈現指數級增長(cháng)。這種“軍備競賽”型開(kāi)發(fā)模式,帶來(lái)了驚人的能源消耗和訓練成本,難以為繼。受大模型訓練的高昂成本拖累,OpenAI在2024年的虧損額可能達到50億美元,業(yè)內專(zhuān)家預計到2026年其虧損將進(jìn)一步攀升至140億美元。
而中國公司運用剪枝、量化、知識蒸餾等一系列創(chuàng )新技術(shù),開(kāi)啟了大模型“瘦身”新風(fēng)尚,走出一條“小而強”的新路徑。以DeepSeek為例,R1在多個(gè)基準測試中與美國OpenAI公司的o1持平,但成本僅為o1的三十分之一。模型性能的追趕速度也很快,OpenAI推出正式版o1模型是在2024年12月,僅僅1個(gè)多月后,DeepSeek就發(fā)布了性能相當的R1模型。
DeepSeek的成功證明,大模型創(chuàng )新不一定要依賴(lài)最先進(jìn)的硬件,而是可以通過(guò)聰明的工程設計和高效的訓練方法實(shí)現。這種技術(shù)突破不僅降低了AI大模型的硬件門(mén)檻和能源消耗,更重要的是為AI技術(shù)普惠化鋪平了道路。因為更小的模型意味著(zhù)更低的部署成本、更快的響應速度和更廣泛的應用場(chǎng)景。在醫療、教育、制造等諸多領(lǐng)域,輕量級AI模型都將帶來(lái)革命性的轉變。
從信息技術(shù)發(fā)展歷史看,“小型化”進(jìn)程也是大勢所趨。計算機曾是占據整個(gè)房間的大型機,后來(lái)發(fā)展成可作為桌面設備的電腦,又進(jìn)化為便攜式筆記本。手機從古早的磚頭式“大哥大”,改進(jìn)為小巧的功能機,又進(jìn)化至如今的智能終端。DeepSeek的成果,標志著(zhù)AI大模型正在經(jīng)歷類(lèi)似的進(jìn)化過(guò)程。這種“小而強”的AI模型,將推動(dòng)人工智能從實(shí)驗室走向千家萬(wàn)戶(hù),從云端走向邊緣端。
模型并非越大越好,而是越精越妙。大模型“瘦身”促進(jìn)了AI技術(shù)的創(chuàng )新和突破。為了在減少參數的同時(shí)保持甚至提升模型性能,研究人員不得不深入挖掘模型架構的優(yōu)化空間,探索更高效的算法和訓練方法。這一過(guò)程推動(dòng)了人工智能基礎理論的發(fā)展,也為相關(guān)技術(shù)的跨領(lǐng)域應用開(kāi)創(chuàng )了新局面。
當然,大模型“瘦身”沒(méi)到終點(diǎn)站,仍面臨諸多挑戰。如何在保證模型性能的前提下實(shí)現最大程度的“瘦身”,是當前需要解決的關(guān)鍵問(wèn)題。同時(shí),“瘦身”后的模型如何在不同場(chǎng)景下保證適應性和穩定性,也需要進(jìn)一步驗證和優(yōu)化。
在快節奏的商業(yè)環(huán)境中,高效、靈活、低成本的解決方案更具競爭力。追求極致性?xún)r(jià)比,一向是中國公司的強項。在諸多中國公司的競爭中,AI大模型正從曾經(jīng)的“龐然大物”逐漸蛻變?yōu)檩p盈高效的“智慧精靈”,在保持強大認知能力的同時(shí),大大降低了計算資源的消耗。中國公司也從模仿者和追隨者,逐漸轉變?yōu)閯?chuàng )新者和引領(lǐng)者。展望未來(lái),大模型“瘦身”后必將走向更寬廣的坦途。 (本文來(lái)源:經(jīng)濟日報 作者:佘惠敏)
(責任編輯:王炬鵬)