在线观看国产中文字幕_欧美一区二区福利视频_av在线你懂的_污视频在线观看免费网站_亚洲精品99999_亚洲精品视频免费在线观看_亚洲精品国精品久久99热_一区二区三区国产在线观看_日本成人在线电影网

首頁(yè) > 科技活動(dòng) > 每日活動(dòng) > 硬核“吵”了30分鐘:這場(chǎng)大模型圓桌,把AI行業(yè)的分歧說(shuō)透了

硬核“吵”了30分鐘:這場(chǎng)大模型圓桌,把AI行業(yè)的分歧說(shuō)透了

發(fā)布時(shí)間:2025-07-29 21:37:43

什么?2025 年世界人工智能大會(huì)(WAIC)第二天,幾位行業(yè)大佬「吵」起來(lái)了。

是的,你沒聽錯(cuò)!他們「吵架」的熱度,堪比盛夏的天氣,直逼 40 度高溫。

事情的起因是在一場(chǎng)圓桌論壇上,剛聊到模型訓(xùn)練范式,大家就展開了尖峰辯論。

但這場(chǎng)關(guān)于訓(xùn)練范式的思想碰撞,很快轉(zhuǎn)移到了模型架構(gòu)、訓(xùn)練數(shù)據(jù)、開閉源等尖銳的問題上。每個(gè)問題都深入大模型發(fā)展的核心要害。

最直觀的感受:「這是 AI 行業(yè)頂流的公開 battle,我愿稱之為今年最硬核『吵架』現(xiàn)場(chǎng)?!古_(tái)上嘉賓你來(lái)我往,臺(tái)下觀眾掌聲不斷。

而這場(chǎng)圓桌論壇,是由商湯科技承辦的 WAIC 2025 大模型論壇的「模型之問」圓桌 —— 探討的是「大模型技術(shù)演進(jìn)與發(fā)展之路」。

圓桌主持人由商湯科技聯(lián)合創(chuàng)始人、執(zhí)行董事、首席科學(xué)家林達(dá)華擔(dān)任主持。嘉賓陣容堪稱當(dāng)前大模型生態(tài)的多路代表:包括階躍星辰首席科學(xué)家張祥雨,上海人工智能實(shí)驗(yàn)室青年領(lǐng)軍科學(xué)家、書生大模型負(fù)責(zé)人陳愷,北京智譜華章科技股份有限公司總裁王紹蘭,范式集團(tuán)聯(lián)合創(chuàng)始人、首席科學(xué)官陳雨強(qiáng),英偉達(dá)全球開發(fā)者生態(tài)副總裁 Neil Trevett。

可以說(shuō)這場(chǎng)論壇匯聚了來(lái)自基礎(chǔ)模型研發(fā)、行業(yè)落地應(yīng)用、算力平臺(tái)等多個(gè)關(guān)鍵環(huán)節(jié)的代表性力量,是一次不同路徑、不同視角的深入對(duì)話。

在這場(chǎng) 30 分鐘的對(duì)話中,每一位嘉賓發(fā)言的背后,既是對(duì)技術(shù)路線的選擇,也關(guān)乎產(chǎn)業(yè)未來(lái)的走向,值得每一個(gè)人深思。

一開場(chǎng),林達(dá)華表示:「大模型技術(shù)發(fā)展到今天,可以說(shuō)是在繁花似錦的背后,我們也進(jìn)入到了一個(gè)十字路口。過去大半年的時(shí)間里,大模型的技術(shù)格局經(jīng)歷了一個(gè)重要的范式轉(zhuǎn)變。從最初以預(yù)訓(xùn)練為主、監(jiān)督學(xué)習(xí)為輔的模式 —— 這一范式由 OpenAI 所開創(chuàng) —— 逐漸向注重推理能力提升的強(qiáng)化學(xué)習(xí)范式過渡。這個(gè)轉(zhuǎn)變標(biāo)志著 AI 領(lǐng)域在技術(shù)上的進(jìn)一步演化?!?/p>

隨著這個(gè)觀點(diǎn)的拋出,這場(chǎng)圍繞大模型的圓桌論壇正式拉開帷幕。

預(yù)訓(xùn)練與強(qiáng)化學(xué)習(xí)

在大模型爆發(fā)初期,基本是以預(yù)訓(xùn)練為主,比如 OpenAI 發(fā)布 GPT-4o 時(shí),當(dāng)時(shí)所有的計(jì)算資源都投入在預(yù)訓(xùn)練上。很多人認(rèn)為如果預(yù)訓(xùn)練不足,模型能力上限將被鎖死。

隨著 o1 的發(fā)布,OpenAI 提出在預(yù)訓(xùn)練好的模型上,用強(qiáng)化學(xué)習(xí)做后訓(xùn)練(PostTraining),能顯著提高模型推理能力。如下圖左邊顯示隨著訓(xùn)練時(shí)間的增加,模型性能隨之提升。這種走勢(shì)是每個(gè)訓(xùn)練 AI 模型的人都熟悉的。

右邊表明在「測(cè)試時(shí)間」增加時(shí),模型的表現(xiàn)也會(huì)得到改善。這一發(fā)現(xiàn)代表了一個(gè)全新的擴(kuò)展維度 —— 不僅僅是訓(xùn)練時(shí)間擴(kuò)展,還包括測(cè)試時(shí)間擴(kuò)展,用到的訓(xùn)練方法主要是強(qiáng)化學(xué)習(xí)。

o1 的技術(shù)博客中展示了一張圖表:準(zhǔn)確度和測(cè)試時(shí)計(jì)算之間存在對(duì)數(shù)線性關(guān)系,o1 的性能隨著訓(xùn)練時(shí)間和測(cè)試時(shí)的計(jì)算而平穩(wěn)提高

在 OpenAI 看來(lái),未來(lái)強(qiáng)化學(xué)習(xí)計(jì)算可能會(huì)成為主導(dǎo)。

從 GPT-4o 到 o1 范式的轉(zhuǎn)變,不禁讓我們思考,原本由 OpenAI 所開創(chuàng)的以預(yù)訓(xùn)練為主、監(jiān)督學(xué)習(xí)為輔的范式,現(xiàn)在逐漸轉(zhuǎn)向了更加注重推理能力提升的強(qiáng)化學(xué)習(xí)范式。此外,OpenAI 前首席科學(xué)家伊利亞也提出了類似觀點(diǎn),預(yù)訓(xùn)練時(shí)代即將終結(jié)。

隨著推理模型的崛起,強(qiáng)化學(xué)習(xí)越來(lái)越得到大家重視。因此一個(gè)值得深思的問題被提出,預(yù)訓(xùn)練和強(qiáng)化學(xué)習(xí)我們應(yīng)該怎么平衡?

張祥雨首先肯定了這套范式的合理性(從預(yù)訓(xùn)練到監(jiān)督微調(diào)再到 RL)。對(duì)于預(yù)訓(xùn)練而言,本質(zhì)就是壓縮語(yǔ)料的一個(gè)過程,之后在模型內(nèi)部形成一個(gè)更加緊湊的表示。這個(gè)表示對(duì)模型學(xué)習(xí)世界知識(shí)和建模非常有幫助。

但與此同時(shí),預(yù)訓(xùn)練通常基于 Next Token 預(yù)測(cè),這其實(shí)是一種行為克隆的形式。而行為克隆傳統(tǒng)上被認(rèn)為存在一些難以規(guī)避的問題 —— 比如無(wú)論你用了多少數(shù)據(jù)、模型做得多大,它都很難真正建立起目標(biāo)導(dǎo)向的推理能力。

因?yàn)閴嚎s只是盡可能復(fù)現(xiàn)已有內(nèi)容,而推理本質(zhì)上是要求模型能找到一條邏輯自洽、通向目標(biāo)的因果鏈。因此,RL 應(yīng)運(yùn)而生。

張祥雨還指出了未來(lái)這條范式的發(fā)展方向,他認(rèn)為如何進(jìn)一步擴(kuò)展 RL,使其能夠接受自然語(yǔ)言反饋,而不僅僅是像數(shù)學(xué)、代碼這種確定性反饋很關(guān)鍵。

在張祥雨的分享中,我們捕捉到了一個(gè)非常重要且值得深思的技術(shù)范式拓展,那就是將強(qiáng)化學(xué)習(xí)進(jìn)一步延伸到大規(guī)模預(yù)訓(xùn)練。特別是在推理階段(即 Test Time)使用強(qiáng)化學(xué)習(xí)來(lái)增強(qiáng)推理性能,這確實(shí)是一個(gè)非常具有啟發(fā)性的建議。

陳愷則強(qiáng)調(diào)了預(yù)訓(xùn)練的重要性。他表示,強(qiáng)化學(xué)習(xí)之所以能夠大放異彩,是因?yàn)樗蕾囉谝粋€(gè)強(qiáng)大的冷啟動(dòng)模型。過去,冷啟動(dòng)模型可能依賴于預(yù)訓(xùn)練和監(jiān)督學(xué)習(xí)(SFT),但現(xiàn)在大家對(duì)預(yù)訓(xùn)練的重視程度逐漸提高。預(yù)訓(xùn)練為強(qiáng)化學(xué)習(xí)提供了一個(gè)良好的基礎(chǔ),使其能夠探索多種未來(lái)的可能性,從而發(fā)揮其應(yīng)有的作用。

陳愷進(jìn)一步討論了強(qiáng)化學(xué)習(xí)未來(lái)面臨的挑戰(zhàn),即獎(jiǎng)勵(lì)或反饋機(jī)制的問題。這個(gè)問題將成為強(qiáng)化學(xué)習(xí)進(jìn)一步拓展到更多任務(wù)時(shí)的一個(gè)關(guān)鍵挑戰(zhàn)。目前,強(qiáng)化學(xué)習(xí)主要用于解決一些有明確答案的任務(wù),比如填空和問答題,但實(shí)際上,許多有效且有價(jià)值的任務(wù)并沒有唯一確定的答案(這和張祥雨的觀點(diǎn)類似)。因此,強(qiáng)化學(xué)習(xí)需要探索新的獎(jiǎng)勵(lì)和反饋機(jī)制,這可能依賴于新的評(píng)價(jià)標(biāo)準(zhǔn),或者通過與環(huán)境的實(shí)際交互反饋來(lái)形成獎(jiǎng)勵(lì)體系。

此外,陳愷還表示強(qiáng)化學(xué)習(xí)也給基礎(chǔ)設(shè)施帶來(lái)了新的挑戰(zhàn)。盡管強(qiáng)化學(xué)習(xí)已經(jīng)取得了一些進(jìn)展,但從效率上來(lái)看,仍然存在較大的提升空間。強(qiáng)化學(xué)習(xí)需要大量算力,且模型需要不斷進(jìn)行探索和學(xué)習(xí)。如果未來(lái)強(qiáng)化學(xué)習(xí)開始依賴更多的交互反饋,這對(duì)基礎(chǔ)設(shè)施的要求將會(huì)更高,對(duì)相關(guān)技術(shù)和資源的挑戰(zhàn)也將更加嚴(yán)峻。

Transformer 架構(gòu)與非 Transformer 架構(gòu)

在整個(gè)模型研發(fā)過程中,訓(xùn)練范式是非常重要的一部分,而訓(xùn)練范式又依托于高效的模型架構(gòu)。

從 2017 年至今,Transformer 統(tǒng)治 AI 領(lǐng)域已經(jīng)八年之久。如果從 2019 年的 GPT-2 出發(fā),回顧至 2024–2025 年的 ChatGPT、 DeepSeek-V3 、LLaMA 4 等主流模型,不難發(fā)現(xiàn)一個(gè)有趣的現(xiàn)象:盡管模型能力不斷提升,但其整體架構(gòu)基本保持高度一致。

然而,隨著模型參數(shù)飆升至千億級(jí)、上下文窗口拉伸至百萬(wàn) Token,Transformer 的一些限制開始顯現(xiàn)。 比如,其最大的問題是自注意力機(jī)制的 O (n^2) 擴(kuò)展性,當(dāng)序列長(zhǎng)度 n 增加時(shí),計(jì)算量和內(nèi)存占用呈平方級(jí)增長(zhǎng)。其次,注意力機(jī)制需要存儲(chǔ)大量中間結(jié)果和 KV 緩存,顯存很快被占滿;第三,Transformer 缺乏顯式的長(zhǎng)期記憶機(jī)制,導(dǎo)致在需要多步推理或跨文檔對(duì)齊的任務(wù)上,小樣本泛化能力急劇下降。

對(duì)此,業(yè)界和學(xué)界開始新的探索,他們主要沿著兩條技術(shù)路線展開。

一是優(yōu)化現(xiàn)有 Transformer 架構(gòu),例如,位置編碼從最初的絕對(duì)位置發(fā)展為旋轉(zhuǎn)位置編碼(RoPE);注意力機(jī)制也從標(biāo)準(zhǔn)的多頭注意力逐步過渡為更高效的分組查詢注意力(Grouped-Query Attention),另外在激活函數(shù)方面,GELU 被更高效的 SwiGLU 所取代。

另一條則是跳出 Transformer,探索全新架構(gòu)范式。如 Mamba 系列通過狀態(tài)空間模型(SSM)實(shí)現(xiàn)線性復(fù)雜度的長(zhǎng)序列建模,展現(xiàn)出比 Transformer 更優(yōu)的延遲性能與可控推理能力;RetNet、RWKV 等結(jié)構(gòu)則融合了 RNN 的記憶優(yōu)勢(shì)與 Transformer 的并行性,力圖找到效率與能力的最優(yōu)平衡點(diǎn)。

值得注意的是,當(dāng)前的大模型架構(gòu)發(fā)展也呈現(xiàn)出混合設(shè)計(jì)趨勢(shì),如由 AI21 Labs 推出的 Jamba 就是混合架構(gòu)典型,其結(jié)合了經(jīng)典的 Transformer 模塊和 Mamba 模塊。

年初發(fā)布的 DeepSeek V3 表明,即使是優(yōu)化現(xiàn)有 Transformer 架構(gòu),也可以大幅度降低模型訓(xùn)練和推理成本。這就帶來(lái)一個(gè)值得深思的問題:我們是基于 Transformer 架構(gòu)進(jìn)行創(chuàng)新?還是開發(fā)非 Transformer 架構(gòu)?

對(duì)于這一問題,張祥雨表示,模型架構(gòu)并不是最重要的決定因素,架構(gòu)是為系統(tǒng)和算法服務(wù)的。Transformer 架構(gòu)沒有問題。現(xiàn)在流傳下來(lái)的仍然是最經(jīng)典的 Transformer 架構(gòu)。

但現(xiàn)在的問題是,算法開始向 RL 遷移,而我們的應(yīng)用場(chǎng)景也從推理時(shí)代向智能體時(shí)代轉(zhuǎn)變。而智能體最重要的特性是自主性,它必須能夠主動(dòng)與環(huán)境交互,并從環(huán)境中進(jìn)行學(xué)習(xí)。

這就意味著,我們的模型架構(gòu)需要具備類似人類的能力,能夠建模一種無(wú)限流或無(wú)限上下文的能力。因此,張祥雨認(rèn)為,(在智能體時(shí)代)傳統(tǒng)模式已經(jīng)遇到了阻礙,像是傳統(tǒng)的 RNN 架構(gòu),未來(lái)短時(shí)間內(nèi)可能會(huì)重新成為下一代主流架構(gòu)的設(shè)計(jì)考慮之一。

真實(shí)數(shù)據(jù)與合成數(shù)據(jù)之爭(zhēng)

但我們不可忽視的是,大模型的背后,還有數(shù)據(jù)。過去,AlexNet 及其后續(xù)工作解鎖了 ImageNet,Transformer 的興起解鎖了海量的互聯(lián)網(wǎng)數(shù)據(jù)。然而今天,我們正面臨一個(gè)殘酷現(xiàn)實(shí):高質(zhì)量語(yǔ)料正在趨于枯竭。隨著已被爬取的內(nèi)容越來(lái)越多,邊際新增的優(yōu)質(zhì)數(shù)據(jù)正在減少。

有研究預(yù)計(jì),如果 LLM 保持現(xiàn)在的發(fā)展勢(shì)頭,預(yù)計(jì)在 2028 年左右,已有的數(shù)據(jù)儲(chǔ)量將被全部利用完。屆時(shí),基于大數(shù)據(jù)的大模型的發(fā)展將可能放緩甚至陷入停滯。與此同時(shí),擁有版權(quán)、隱私等限制的數(shù)據(jù),更是加劇了垂直領(lǐng)域的發(fā)展。

圖源:來(lái)自論文《Will we run out of data? Limits of LLM scaling based on human-generated data》

在此背景下,合成數(shù)據(jù)被寄予厚望,國(guó)內(nèi)外很多公司開始采用這種方式。比如 Anthropic 首席執(zhí)行官 Dario Amodei 曾經(jīng)表示,對(duì)于高質(zhì)量數(shù)據(jù)耗盡的困境,Anthropic 正在嘗試模型合成數(shù)據(jù)的方法,也就是使用模型生成更多已有類型的數(shù)據(jù)。這一策略也在 OpenAI、Meta、Google DeepMind 等公司的新一代模型訓(xùn)練中被廣泛應(yīng)用。

然而,合成數(shù)據(jù)在一定程度上緩解了數(shù)據(jù)難題,但它本身也引發(fā)了一系列新的挑戰(zhàn)與隱憂。2024 年登上《自然》封面的一項(xiàng)研究認(rèn)為如果放任大模型用生成的數(shù)據(jù)進(jìn)行訓(xùn)練,AI 可能會(huì)崩潰,在短短幾代內(nèi)將原始內(nèi)容迭代成無(wú)法挽回的胡言亂語(yǔ)。

一邊是高質(zhì)量數(shù)據(jù)資源日漸枯竭,另一邊則是對(duì)合成數(shù)據(jù)的高度依賴與不確定性并存。

這種擔(dān)憂,也發(fā)生在英偉達(dá)內(nèi)部。Neil Trevett 表示,英偉達(dá)在圖形生成和物理仿真方面也面臨數(shù)據(jù)困擾的問題,尤其是那些無(wú)法獲取、獲取成本高、涉及倫理風(fēng)險(xiǎn)或隱私問題的數(shù)據(jù)。

圓桌現(xiàn)場(chǎng),Neil Trevett 給出了英偉達(dá)的一個(gè)解決思路,利用物理仿真生成模擬場(chǎng)景,用來(lái)訓(xùn)練大模型。這種方式尤其適用于構(gòu)造一些在真實(shí)世界中難以采集的邊緣案例,比如交通事故場(chǎng)景,或者機(jī)器人遇到異常情況時(shí)的應(yīng)對(duì)。

不過,Neil Trevett 也強(qiáng)調(diào):不能完全依賴合成數(shù)據(jù)。用于合成數(shù)據(jù)的生成模型本身可能存在偏差、誤差或盲區(qū),因此需要建立真實(shí)世界的驗(yàn)證機(jī)制和反饋閉環(huán),比如通過 human-in-the-loop 的方式,來(lái)輔助驗(yàn)證訓(xùn)練效果是否真實(shí)可用。Neil Trevett 還給出了幾個(gè)非常有前景的技術(shù)路徑,包括自監(jiān)督學(xué)習(xí)、主動(dòng)學(xué)習(xí)、混合式訓(xùn)練流程等。

王紹蘭則給出了不一樣的觀點(diǎn),他認(rèn)為對(duì)于預(yù)訓(xùn)練而言,大家常提到的互聯(lián)網(wǎng)數(shù)據(jù)耗盡,其實(shí)是一個(gè)量的問題,可能更關(guān)鍵的是質(zhì)的問題。也就是說(shuō),當(dāng)初大模型所依賴的大量互聯(lián)網(wǎng)數(shù)據(jù),它們的質(zhì)量是否真的足夠好?這需要重新審視。接下來(lái)應(yīng)該是進(jìn)一步提升預(yù)訓(xùn)練數(shù)據(jù)中的質(zhì)量。

王紹蘭還提到所謂數(shù)據(jù)耗盡并不像大家說(shuō)的那樣夸張,原因是行業(yè)數(shù)據(jù)還沉淀在行業(yè)中,沒有被用來(lái)訓(xùn)練模型。因此大模型想要落地到行業(yè)中去,必須用行業(yè)數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。

關(guān)于合成數(shù)據(jù)問題,王紹蘭認(rèn)為隨著大模型場(chǎng)景的不斷擴(kuò)展,一些場(chǎng)景數(shù)據(jù)是極其稀缺的,甚至是完全不存在的。因此,只能依賴合成數(shù)據(jù)和仿真環(huán)境來(lái)補(bǔ)足。

然而,這種做法會(huì)帶來(lái)一系列挑戰(zhàn),如果仿真不夠真實(shí),那么生成的數(shù)據(jù)也會(huì)存在偏差,最終會(huì)影響模型訓(xùn)練效果。因此,我們不能把合成數(shù)據(jù)看作一個(gè)萬(wàn)能鑰匙,它有價(jià)值,但不能解決一切問題,背后仍有大量工程上的挑戰(zhàn)需要克服。

最后,王紹蘭還建議:對(duì)于行業(yè)中非敏感、非涉密的關(guān)鍵數(shù)據(jù),應(yīng)當(dāng)考慮在行業(yè)內(nèi)部建立數(shù)據(jù)共享機(jī)制或聯(lián)盟組織,共同挖掘、整理這些數(shù)據(jù),為大模型在各類實(shí)際場(chǎng)景中的應(yīng)用提供更可靠的「彈藥庫(kù)」。這一建議一發(fā)出,現(xiàn)場(chǎng)掌聲不斷。

基礎(chǔ)模型與 Agent 向左向右

從來(lái)不是一道單選題

進(jìn)入到 2025 年,我們可以觀察到一個(gè)很明顯的趨勢(shì),基礎(chǔ)模型的研發(fā)速度逐漸放緩,而以 Agent 為代表的應(yīng)用成為了爆點(diǎn)。國(guó)內(nèi)外廠商陸續(xù)推出了自動(dòng)化執(zhí)行任務(wù)的 Agent 產(chǎn)品,比如 OpenAI 推出的 Operator、深度研究以及 ChatGPT agent、智譜 AI 推出的 AutoGLM 沉思等。

這正是隨著大模型進(jìn)入到應(yīng)用深水區(qū)以來(lái),行業(yè)內(nèi)加速構(gòu)建商業(yè)閉環(huán)并著眼產(chǎn)業(yè)落地的真實(shí)寫照。同時(shí),對(duì)于一些以 AGI 為終極目標(biāo)的廠商來(lái)說(shuō),基礎(chǔ)模型的研發(fā)同樣不會(huì)停滯。如何平衡基礎(chǔ)模型投入與應(yīng)用落地之間的關(guān)系,成為廠商在戰(zhàn)略決策層面的核心議題。

智譜在持續(xù)迭代基座大模型 GLM 系列,覆蓋語(yǔ)言模型、多模態(tài)模型等的同時(shí),也積極推動(dòng)大模型在各行各業(yè)的落地。面對(duì)這種雙軌布局是否太分散精力的疑問,王紹蘭表示兩者并不沖突。

一方面,基礎(chǔ)模型仍處于快速演進(jìn)的階段,行業(yè)普遍對(duì)當(dāng)前模型成果感到振奮,但距離 AGI 的目標(biāo)仍有較大差距。如果類比自動(dòng)駕駛的分級(jí),當(dāng)前大模型大致處于 L3 階段,僅完成了預(yù)訓(xùn)練、對(duì)齊與基礎(chǔ)推理,并剛剛進(jìn)入到了具備反思與沉思能力的深度推理階段。未來(lái)仍需要繼續(xù)進(jìn)化,即使是 OpenAI 即將發(fā)布的 GPT-5,與 AGI 仍有距離。他認(rèn)為,包括智譜在內(nèi),對(duì)基礎(chǔ)模型的探索將持續(xù)下去。

另一方面,王紹蘭也強(qiáng)調(diào),模型的價(jià)值不應(yīng)只停留在純理論研究層面。如果不展開模型的商業(yè)化落地,它們的價(jià)值就無(wú)從體現(xiàn)。大模型要「用起來(lái)」,直至變成生產(chǎn)力革命的那一天。如今,大模型正通過 Agent 等形態(tài)拓展自身應(yīng)用。同時(shí)在落地的過程中,各行各業(yè)的領(lǐng)軍企業(yè)和生態(tài)伙伴也要具備大模型思維,積極擁抱這場(chǎng)范式變革。

同樣地,第四范式在大模型落地方面也走在了行業(yè)前列,尤其是將 AI 技術(shù)應(yīng)用于金融等重點(diǎn)行業(yè)。對(duì)于如何平衡基礎(chǔ)模型的持續(xù)研發(fā)與行業(yè)應(yīng)用落地,陳雨強(qiáng)首先指出在技術(shù)發(fā)展極為迅速的當(dāng)下,要保證自身在行業(yè)中的競(jìng)爭(zhēng)力,其中最關(guān)鍵的是要用好已有的開源或閉源模型。

接著,陳雨強(qiáng)談到了基礎(chǔ)模型能力以及引發(fā)的數(shù)據(jù)問題。當(dāng)前,已經(jīng)有超過 30% 的流量來(lái)自模型輸出而非傳統(tǒng)搜索引擎,這也導(dǎo)致面臨人為破壞數(shù)據(jù)等風(fēng)險(xiǎn)。此外,用于評(píng)估大模型的工具(如 Arena)雖有價(jià)值,但也存在局限。很多普通用戶不關(guān)心答案是否真的正確,而是像不像好答案,這就導(dǎo)致排版精美的算法在輸出結(jié)果時(shí)得分更高,進(jìn)一步加劇數(shù)據(jù)偏差問題。

最后,他提到,在企業(yè)落地中,尤其涉及金融等高敏感領(lǐng)域,仍存在諸多挑戰(zhàn)。比如在反欺詐場(chǎng)景,基礎(chǔ)大模型難以直接處理像每天十億用戶交易記錄這樣的大規(guī)模數(shù)據(jù)輸入。這意味著,大模型的落地要在基礎(chǔ)模型能力、數(shù)據(jù)質(zhì)量等多個(gè)層面持續(xù)進(jìn)行技術(shù)突破。

開源模型即使非最強(qiáng)

也能鞭策整個(gè)行業(yè)進(jìn)步

除了訓(xùn)練范式、架構(gòu)的持續(xù)進(jìn)化以及解決數(shù)據(jù)瓶頸之外,開源與閉源同樣影響著大模型技術(shù)路徑的選擇、產(chǎn)業(yè)生態(tài)的構(gòu)建以及人工智能的格局。

一直以來(lái),AI 領(lǐng)域便存在著開源與閉源兩大陣營(yíng)。在國(guó)內(nèi)外頭部大模型廠商中,OpenAI 在 GPT-3 之后就完全轉(zhuǎn)向了閉源,而以 LLaMA、DeepSeek、Qwen、Kimi 等為代表的開源模型陣營(yíng),正不斷逼近甚至部分超越閉源大模型的性能表現(xiàn)。

其中,DeepSeek 的開源模型憑借其優(yōu)異的性能和極低的部署成本,迅速在全球范圍內(nèi)獲得了廣泛關(guān)注和應(yīng)用,甚至對(duì)以英偉達(dá) GPU 和閉源模型為主導(dǎo)的傳統(tǒng) AI 產(chǎn)業(yè)鏈構(gòu)成了沖擊??梢灶A(yù)見,開源與閉源將在未來(lái)的 AI 生態(tài)中持續(xù)展開博弈。

陳愷從自己多年來(lái)的開源領(lǐng)域經(jīng)驗(yàn)出發(fā),探討了開源如何在大模型時(shí)代產(chǎn)生深遠(yuǎn)影響。就在昨天,他所在的上海人工智能實(shí)驗(yàn)室開源了「書生」科學(xué)多模態(tài)大模型 Intern-S1,并基于此打造了「書生」科學(xué)發(fā)現(xiàn)平臺(tái) Intern-Discovery。

在他看來(lái),一方面,開源不僅重塑行業(yè)內(nèi)不同玩家之間的分工與資源投入方式,還推動(dòng)了資源的更合理配置。另一方面,盡管開源模型未必是性能最強(qiáng)的,但它能夠有效避免重復(fù)投入,促使廠商專注于真正需要解決的問題。

更重要的是,對(duì)于行業(yè)內(nèi)仍在訓(xùn)練基礎(chǔ)模型并以 AGI 為終極目標(biāo)的玩家來(lái)說(shuō),開源無(wú)疑形成一種實(shí)質(zhì)性壓力:如果閉源模型比不過開源成果,其存在價(jià)值可能就會(huì)受到質(zhì)疑。因此,開源不一定總能做到最好,卻能鞭策整個(gè)行業(yè)以更高效的方式持續(xù)演進(jìn)。

而作為全球領(lǐng)先的芯片供應(yīng)商,英偉達(dá)高度重視并持續(xù)支持全球 AI 生態(tài)的發(fā)展,并投入很多。特別在開源方面,英偉達(dá)為開源大模型訓(xùn)練與部署提供了算力引擎,通過強(qiáng)大的芯片、好用的工具讓模型易用性更強(qiáng)。

Neil Trevett 表示,開源的力量毋庸置疑,如其他技術(shù)領(lǐng)域一樣,開源是推動(dòng) AI 行業(yè)前進(jìn)的強(qiáng)大「工具」。然而,開源是否適合每家公司,需要他們根據(jù)自身成本效益和競(jìng)爭(zhēng)策略來(lái)判斷,比如開源是否能節(jié)省成本、是否會(huì)削弱自身競(jìng)爭(zhēng)優(yōu)勢(shì)等。因此,他認(rèn)為,未來(lái)行業(yè)可能會(huì)走向開源與閉源結(jié)合的混合模式。

同時(shí),開源也帶來(lái)了一些新挑戰(zhàn),比如模型分叉、碎片化和濫用,需要行業(yè)共同探索治理方式。Neil Trevett 堅(jiān)信,隨著行業(yè)的發(fā)展,這些都會(huì)逐步得到解決。

至此,這場(chǎng)圓桌論壇畫上了圓滿的句號(hào)。從訓(xùn)練范式到架構(gòu)演進(jìn),從數(shù)據(jù)焦慮到開源閉源之爭(zhēng),再到 Agent 落地與行業(yè)融合,這場(chǎng)由商湯承辦的「模型之問」圓桌論壇,展現(xiàn)了大模型時(shí)代最真實(shí)的技術(shù)分歧,也匯聚了業(yè)界最權(quán)威的思考。

這場(chǎng)硬核辯論,或許正是 AI 行業(yè)走向成熟的重要一步。

每日活動(dòng)更多>>

持續(xù)熱銷!蔚來(lái)康凱:ES8月產(chǎn)能將沖刺2萬(wàn)輛,蔚來(lái)這回賭對(duì)了? EZ60持續(xù)熱銷 長(zhǎng)安馬自達(dá)再獲國(guó)內(nèi)用戶喜愛 有格調(diào)有魅力的大佬座駕 試駕體驗(yàn)寶馬M760Le xDrive 被國(guó)產(chǎn)車逼急后,合資車終于開竅了 黃勇與曹東杰:東風(fēng)本田派出的“轉(zhuǎn)型雙保險(xiǎn)”,勝算幾何? 斯巴魯官方不開發(fā)的WRX Crosstrek,熱情粉絲手搓一臺(tái) 別克至境世家廣州首秀,比世紀(jì)更全面的新能源旗艦MPV,50萬(wàn)起? 9.28萬(wàn)起售!零跑Lafa5:日常通勤/賽道撒歡兩不誤 “奕境”來(lái)了,解讀東風(fēng)與華為的全新合作模式 比亞迪唐L攜新車色及智能OTA上市 補(bǔ)貼后21.48萬(wàn)元起 “油電同強(qiáng)”,廣汽豐田的百萬(wàn)輛更具含金量 何小鵬:X9超級(jí)增程切入混動(dòng)市場(chǎng),研發(fā)瞄準(zhǔn)“一車雙能”戰(zhàn)略布局 77億的工廠16億賣 自主“撿漏”合資產(chǎn)能背后的車市劇變 國(guó)車霸榜,華系擴(kuò)張,合資覺醒,技術(shù)平權(quán),2025廣州車展9大觀察 燃油車和新能源平分天下已不可能!蔚來(lái)對(duì)2026年的6個(gè)判斷 對(duì)話何兆鵬:212越野車的“高地”之戰(zhàn),從用戶共創(chuàng)到全球野望 買插混增程到底看什么?虧電油耗高點(diǎn)沒啥,這倆指標(biāo)差才讓人焦慮 哈弗亮相廣州車展 傳遞年輕化理念 紅旗攜三大子品牌亮相廣州車展 HS6 PHEV啟動(dòng)“四極”測(cè)試 油車熱效率“穩(wěn)定落后”了100年!這兩年為啥集體升仙破了45%? 配置全面越級(jí) 極狐T1價(jià)值感拉滿亮相廣州車展 2026款長(zhǎng)城炮9.98萬(wàn)起上市,三炮齊發(fā)再戰(zhàn)皮卡市場(chǎng) 蘭博基尼Huracán STO:“內(nèi)燃機(jī)的慶典”,最強(qiáng)量產(chǎn)Huracán 豐田史上最好油車!全新?lián)Q代威蘭達(dá),給你一個(gè)不買電車的理由 為什么沃爾沃XC70能成為第一款成功上市的主流豪華新能源車 廣汽昊鉑A800廣州車展全球內(nèi)飾首發(fā),全速?zèng)_刺高速L3商用 阿維塔全陣營(yíng)亮相廣州車展,華為乾崑高度賦能,四激光雷達(dá)是亮點(diǎn) 不止于車,更是搭子!歐拉5廣州車展演繹與年輕人的雙向奔赴 從“謀生工具”到“創(chuàng)富伙伴”,五菱品牌舉辦第二屆致敬奮斗者大會(huì) 3000萬(wàn)用戶信賴加持!一汽-大眾攜全新陣容引爆廣州車展
www.久久草.com| 日本免费在线视频观看| 久久99精品国产99久久| 国产一区精品视频| 中文字幕在线乱| 欧美自拍小视频| 中文人妻一区二区三区| 青青草免费av| 性做久久久久久久久久| 8x8x国产| 免费看美女隐私的视频| 欧美成人三区| 国产精品天堂蜜av在线播放| 嫩草影视亚洲| 美女爽到高潮91| 综合激情成人伊人| 日韩欧美电影一区| 久久理论片午夜琪琪电影网| 操人视频欧美| 欧美a在线视频| 国产免费嫩草影院| 精品国产免费无码久久久| 九色.com| 色网在线观看| 香蕉久久夜色精品国产更新时间| 日韩精品亚洲专区| 综合亚洲深深色噜噜狠狠网站| 91精品福利在线一区二区三区| 欧美片一区二区三区| 欧美一区二区三区成人久久片| 性生生活大片免费看视频| 国产这里有精品| 欧洲vodafone精品| 久久精品色图| 国产精品久久久网站| 日韩在线a电影| 欧美日韩国产一区二区三区| 中文字幕亚洲二区| 久久久久网址| 日本护士做爰视频| 精品人妻伦一二三区久久| 99精产国品一二三产品香蕉| 日韩伦理在线一区| 影音先锋久久精品| 亚洲欧洲精品天堂一级| 亚洲色图17p| 精品综合久久| 香港三级日本三级| 蜜桃视频污在线观看| 在线看的网站你懂| 精品国内亚洲2022精品成人| 国产精品亚洲成人| 精品久久久三级丝袜| 国产98在线|日韩| 美女被爆操网站| 国产色综合视频| 四虎影院在线域名免费观看| 红杏一区二区三区| 99re这里只有精品首页| 亚洲激情自拍图| 日本最新一区二区三区视频观看| 久久精品一区二区免费播放| 中国女人内谢69视频| 麻豆视频在线免费观看| 综合久久十次| 精品国产精品自拍| 国产成人精品午夜| 婷婷激情5月天| 日韩在线视频第一页| 国产免费av高清在线| 人人狠狠综合久久亚洲婷| 国产精品妹子av| 久久免费在线观看| 久久久久久三级| 午夜免费福利视频| 国内外激情在线| 亚洲欧美卡通另类91av| 欧美日韩一区二区在线视频| 91pron在线| 色欲AV无码精品一区二区久久| 亚洲日韩第九十九页| 成年人在线网站| 精品一区二区三区免费| 国产视频一区在线| 国产高清免费在线| 69av视频在线观看| 黄色在线观看网| 激情欧美丁香| 日韩精品一区在线观看| 正在播放一区| 中文字幕在线观看免费| 粉嫩av一区| 一本久道久久久| 亚洲第一福利网| 日本中文字幕在线视频观看 | 欧美日本黄色片| 日韩黄色三级在线观看| 91毛片在线观看| 777精品视频| 亚洲国产精品无码久久久久高潮 | 日韩一区免费| 中文字幕亚洲综合久久菠萝蜜| 欧美一级电影在线| www.免费av| 国语对白在线视频| 91精品国产91久久久久久黑人| 欧美日韩中国免费专区在线看| 久久精品国产精品国产精品污| 精品成人免费视频| 97电影在线| 国产一区二区三区四| 久久久成人av| 成年女人免费视频| 麻豆视频官网| 亚洲欧美一区在线| 亚洲国产精品系列| 黄色成人免费看| 三级毛片在线| 97久久视频| 精品美女被调教视频大全网站| 成品人视频ww入口| 中文字幕有码在线| 国产精品jk白丝蜜臀av小说| 福利微拍一区二区| 中文字幕一区综合| 男人用机机桶女人| 夜夜春成人影院| 欧美日韩一区二区三区四区五区| 伊人久久大香线蕉成人综合网| 成人1区2区3区| 日韩精品成人在线观看| 色94色欧美sute亚洲线路二| 欧美性色黄大片人与善| 亚洲成人一级片| 91精品啪在线观看国产手机 | 99久免费精品视频在线观看| 国产精品影片在线观看| 五月激情六月丁香| 老司机2019福利精品视频导航| 亚洲精品久久久蜜桃| 亚洲在线视频一区二区| 天堂中文在线免费观看| 最新国产一区| 亚洲欧洲中文天堂| 亚洲av综合一区二区| 日韩偷拍自拍| 91香蕉视频在线| 国产在线精品日韩| 少妇人妻一区二区| av中字幕久久| www.精品av.com| 成人18视频免费69| 6699嫩草久久久精品影院| 亚洲综合色区另类av| 99re6这里有精品热视频| 78国产伦精品一区二区三区| 激情五月***国产精品| 性欧美激情精品| 看片网址国产福利av中文字幕| 亚洲不卡系列| 欧美精品三级在线观看| 一级黄色高清视频| www.91在线| 亚洲一区免费在线观看| 欧美啪啪免费视频| 美女激情网站| 91麻豆免费观看| 一区二区免费在线观看| 婷婷丁香激情五月| 麻豆精品一区二区三区| 国产成人一区二区三区免费看| 亚洲国产www| 欧美日韩精品一本二本三本| 久久露脸国产精品| 91福利在线观看视频| 欧美亚洲tv| 精品自拍视频在线观看| 神马久久久久久久| 久草在线成人| 性色av一区二区咪爱| 国产精品羞羞答答在线| 欧美aaaa视频| 青青草原成人在线视频| 精品久久久免费视频| 欧美午夜不卡影院在线观看完整版免费| 2019亚洲男人天堂| 成人av无码一区二区三区| 亚洲高清影视| 成人两性免费视频| 欧美x0x0| 成人av网址在线观看| 成年在线观看视频| 一级毛片在线视频| 亚洲二区在线观看| 国产清纯白嫩初高中在线观看性色| 在线观看a级片| 欧美精品一区视频| 亚洲精品视频在线观看免费视频| 猛男gaygay欧美视频| 国产suv精品一区二区|