突遭下架,“國服最強”開(kāi)源模型將何去何從?
阿里通義千問(wèn)QwenLM代碼在GitHub下架引發(fā)信任危機,在開(kāi)閉源方向選擇上,阿里云積極開(kāi)源,但仍面臨變現難題。大模型價(jià)格戰爆發(fā),技術(shù)與市場(chǎng)需求脫節,商業(yè)化充滿(mǎn)不確定性。
@科技新知?原創(chuàng )
作者丨余寐 編輯丨蕨影
2024年下半年,國產(chǎn)AI大模型并不好過(guò)。
近期,AI代碼類(lèi)應用cursor發(fā)布,因其強大的編程功能,一時(shí)風(fēng)頭無(wú)兩;緊接著(zhù)openAI又于9月12日發(fā)布了最新模型chatGPT o1,在邏輯推理和編程能力上又提升到一個(gè)全新級別,可以說(shuō)擁有了真正的通用推理能力,國際AI領(lǐng)域的競爭日益激烈。
同樣在9月,號稱(chēng)“國服最強”的開(kāi)源大模型通義千問(wèn)QwenLM全系列代碼在github(全球最大的開(kāi)源代碼托管平臺之一)被下架,包括開(kāi)源新王Qwen2.0在內的項目在訪(fǎng)問(wèn)時(shí)全部404。不僅引發(fā)了從業(yè)者對開(kāi)源模型穩定性的信任危機,也暴露出國產(chǎn)大模型在商業(yè)化道路上的困境。
Part.1
下架風(fēng)波,回應敷衍
“團隊沒(méi)有跑路,就是github org被無(wú)端端flag,所以你們看不到內容,我們已經(jīng)在聯(lián)系官方目前也不知道原因?!?/p>
阿里高級算法專(zhuān)家,通義千問(wèn)團隊負責人林俊旸在事件發(fā)生后迅速在社交平臺辟謠。
但這樣的回應并沒(méi)有讓AI相關(guān)從業(yè)者們滿(mǎn)意。在此之前,他們中的一些人剛經(jīng)歷過(guò)Runway從HuggingFace上刪庫跑路的風(fēng)波。Runway以Stable Diffusion系列聞名,一夜之間把自家開(kāi)源模型清空,讓無(wú)數正在使用該模型的開(kāi)發(fā)者陷入停擺。
雖然目前github上QwenLM模型代碼已經(jīng)恢復,但對于事件的原因,通義千問(wèn)團隊并沒(méi)有再做出任何回應。對于開(kāi)源模型的項目,是否會(huì )再次受制于類(lèi)似事故,從業(yè)者們更加茫然和悲觀(guān)。
開(kāi)源是阿里通義大模型的重要戰略。
阿里云CTO周靖人曾在公開(kāi)論壇表示:“開(kāi)發(fā)者的反饋和開(kāi)源社區的生態(tài)支持,是通義大模型技術(shù)進(jìn)步的重要助力?!?/p>
大模型的訓練和迭代成本極高,絕大多數的AI開(kāi)發(fā)者和中小型企業(yè)無(wú)法負擔。從這角度上來(lái)看,通義大模型的「全模態(tài)、全尺寸」開(kāi)源戰略,長(cháng)期沉淀的良好口碑為其贏(yíng)得了一眾鐵粉。
每有開(kāi)源動(dòng)作都會(huì )被熱切的開(kāi)發(fā)者們早早蹲守。截止2023年10月,阿里云旗下開(kāi)源社區“魔塔”已有超過(guò)2300個(gè)模型,開(kāi)發(fā)者超過(guò)280萬(wàn),模型下載數破億。阿里最新推出的開(kāi)源模型QWen2系列更是風(fēng)靡全球,其中Qwen2-72B更是在發(fā)布后短短兩個(gè)小時(shí),就沖上了Huggingface開(kāi)源大模型排行榜之首,隨后又衛冕全球最權威的開(kāi)源模型測試榜單之首。而阿里最新季度業(yè)績(jì)披露,通義千問(wèn)開(kāi)源模型下載量已突破2000萬(wàn)。
通義大模型的開(kāi)源之舉,打破了海外閉源大模型對國內開(kāi)發(fā)者們的制約。就像阿里云CTO周靖人所說(shuō),“阿里云的初衷不是把模型攥在自己手上去商業(yè)化,而是幫助開(kāi)發(fā)者,開(kāi)源的策略與阿里云的初心完全一致?!痹谒磥?lái),要在A(yíng)I創(chuàng )新技術(shù)與模型層出不窮的當下,開(kāi)源是“最佳也是唯一的途徑”。
Part.2
開(kāi)源VS閉源,誰(shuí)是贏(yíng)家?
在大模型時(shí)代開(kāi)啟之時(shí),開(kāi)源和閉源就一直爭論不休。
百度創(chuàng )始人李彥宏就曾在今年4月舉行的百度AI開(kāi)發(fā)者大會(huì )上宣稱(chēng)“開(kāi)源模型會(huì )越來(lái)越落后?!彪S后,李彥宏在內部講話(huà)中也對開(kāi)源模型的局限性表達了明確的看法——雖然開(kāi)源模型獲取和使用便利,但商業(yè)化應用中卻往往遭遇GPU使用率低、推理成本高等問(wèn)題。而互聯(lián)網(wǎng)圈另外一位大佬周鴻祎則表示:“我一直相信開(kāi)源的力量?!?/p>
拋開(kāi)行業(yè)大佬之間的口水戰,開(kāi)源和閉源,兩種截然不同的開(kāi)發(fā)方式在當今的大模型發(fā)展中各有千秋。
從陣營(yíng)上看,開(kāi)源模型如meta的Llama系列、斯坦福的Alpaca、國內的阿里通義大模型等展現了社區驅動(dòng)的快速進(jìn)步和創(chuàng )新。而以OpenAI的GPT系列、Anthropic 的Claude大模型、百度的文心大模型、華為的盤(pán)古大模型等都選擇了閉源的形式,保持著(zhù)技術(shù)領(lǐng)先和商業(yè)應用的優(yōu)勢。
開(kāi)源模式促進(jìn)了大模型技術(shù)的共享與創(chuàng )新,而閉源模式則保障了商業(yè)利益和技術(shù)優(yōu)勢,為大模型的商業(yè)化提供了支持。
有從業(yè)者聲音認為,從模型側來(lái)講,開(kāi)源模型當前還是稍遜于閉源模型。但隨著(zhù)更多開(kāi)源模型的迭代,開(kāi)源的能力也在快速跟上。比如通義大模型Qwen2.5模型性能已經(jīng)全面趕超GPT-4 Turbo。
“從模型質(zhì)量上來(lái)看,開(kāi)源模型由于其代碼的公開(kāi)性,更容易在社區得到測試和改進(jìn);但閉源模型在研發(fā)時(shí),模型的數據語(yǔ)料質(zhì)量、豐富程度以及算力規模,團隊的算法能力和背后強大的資金支持等因素,保證了閉源模型的高質(zhì)量輸出?!?/p>
上述從業(yè)者也提到,數據安全對于大模型來(lái)說(shuō)非常重要,訓練時(shí)會(huì )牽涉到用戶(hù)的隱私數據,抓取也可能存在攻擊性數據。開(kāi)源模型因為要開(kāi)放給更多用戶(hù),在安全和隱私方面會(huì )更加重視,安全專(zhuān)家可以進(jìn)行代碼審查,及時(shí)發(fā)現并修復潛在的安全風(fēng)險;而閉源模型因為其代碼不公開(kāi),有專(zhuān)業(yè)的安全團隊進(jìn)行安全防護和漏洞修復,可以減少由于外部攻擊導致的安全隱患。在業(yè)內人士看來(lái),開(kāi)源和閉源并非二元對立的關(guān)系。
Part.3
通義千問(wèn),路在何方?
比起開(kāi)源和閉源之爭,如何實(shí)現商業(yè)化才是各家大模型當前急需解決的難題。
縱觀(guān)阿里通義大模型的體系,可以分為大模型底座和應用端產(chǎn)品模型兩個(gè)層面。2022年9月,達摩院發(fā)布“通義”大模型系列,打造業(yè)界首個(gè)AI底座。經(jīng)過(guò)一年多的技術(shù)爆發(fā),通義大模型已經(jīng)從初代升級至2.5版本。為了滿(mǎn)足不同計算資源需求和應用場(chǎng)景,通義團隊還推出了參數規模從5億到1100億的八款大語(yǔ)言模型,以及包含了多個(gè)面向不同應用場(chǎng)景的模型,如Qwen-VL(視覺(jué)理解大模型)、Qwen-Audio(音頻理解大模型)等。
除了底層大模型的研發(fā),通義團隊在應用端產(chǎn)品也卯足了勁。在去年10月的阿里云云棲大會(huì )上,CTO周靖人一口氣發(fā)布了八款產(chǎn)品模型:包括通義靈碼(智能編碼助手)、通義智文(AI閱讀助手)、通義聽(tīng)悟(AI工作學(xué)習助手)、通義星塵(個(gè)性化角色創(chuàng )作平臺)、通義點(diǎn)金(智能投研助手)、通義曉蜜(智能客服助手)、通義仁心(個(gè)人健康助手)、通義法睿(AI法律顧問(wèn))。同時(shí),通義千問(wèn)正式上線(xiàn)了APP,所有用戶(hù)都可通過(guò)“通義APP”直接體驗最新模型能力;開(kāi)發(fā)者可以通過(guò)網(wǎng)頁(yè)嵌入、API/SDK調用等方式,將上述所有模型集成到自己的AI應用和服務(wù)中。
基于通義大模型的開(kāi)源屬性,商業(yè)化更是一個(gè)復雜的挑戰。
「科技新知」梳理下來(lái),目前大模型的商業(yè)化模式大致可分為四類(lèi)。從C端市場(chǎng)來(lái)看:一是直接提供API接口,用戶(hù)通過(guò)按量使用來(lái)收費;二是大模型賦能產(chǎn)品帶來(lái)的需求與價(jià)格增長(cháng),如chatGPT、Midjourney等產(chǎn)品的付費使用。從B端市場(chǎng)來(lái)看,一是AI功能帶來(lái)的流量增長(cháng),進(jìn)而收取廣告費用;二是通過(guò)AI對企業(yè)內部賦能,幫助企業(yè)降本增效,如文心大模型接入百度系產(chǎn)品,幫助產(chǎn)品提效。
目前看來(lái),阿里似乎是在ToB和ToC的商業(yè)化道路上同時(shí)摸索前行。2023年4月,阿里巴巴宣布所有產(chǎn)品未來(lái)將接入“通義千問(wèn)”大模型,進(jìn)行全面改造。而在企業(yè)賦能上,阿里云把從飛天云操作系統、芯片到智算平臺的“AI+云計算”這些AI基礎設施和通義大模型能力向所有企業(yè)開(kāi)放,未來(lái)每一個(gè)企業(yè)既可以調用通義千問(wèn)的全部能力,也可以結合企業(yè)自己的行業(yè)知識和應用場(chǎng)景,訓練自己的企業(yè)大模型。同時(shí),通義靈碼、通義智文、通義聽(tīng)悟等在內的八款產(chǎn)品模型,也受到了不少C端用戶(hù)的肯定。
變現之路尚未明朗,AI大模型的價(jià)格戰卻已經(jīng)打響。今年5月以來(lái),字節、阿里、百度、智譜AI等多家國內大模型廠(chǎng)商均調整了旗下大模型產(chǎn)品的定價(jià)策略,通義千問(wèn)主力模型Qwen-long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。
這也深層次反應了大模型廠(chǎng)商在技術(shù)、市場(chǎng)和戰略等多方面的競爭到來(lái)。從商業(yè)化的角度來(lái)說(shuō),純粹的價(jià)格戰能在短期吸引用戶(hù),形成頭部的虹吸效應,但長(cháng)期選擇上,沒(méi)有技術(shù)創(chuàng )新作為支撐,難以形成持久的競爭優(yōu)勢。
大模型落地應用想象空間巨大,但落地難度同樣不小。例如,將大模型直接應用于具體場(chǎng)景,比如醫療健康或法律咨詢(xún)領(lǐng)域時(shí),實(shí)際操作的挑戰便顯現出來(lái)。
在降本增效的大背景下,B端客戶(hù)在選擇大模型時(shí)也會(huì )更加注重成本和收益。如何通過(guò)細分市場(chǎng)企業(yè)精準定位市場(chǎng)需求,提供針對性解決方案,也是通義大模型在商業(yè)化布局中需要深思的。
而在C端市場(chǎng),對于大多數消費者來(lái)說(shuō),AI技術(shù)的實(shí)用性尚未達到不可或缺的地步,各家應用的功能目前也并非不可替代。
這是通義大模型商業(yè)化的困境,也是多數AI大模型企業(yè)的難題。