“今天無論是ChatGPT、還是文心一言等閉源模型,一定比開源模型更強大,推理成本更低?!?/span>
在2024世界人工智能大會(WAIC 2024)期間,百度創始人、董事長兼首席執行官李彥宏,與第一財經傳媒集團總編輯楊宇東和《硅谷101》創始人陳茜,進行了一場圓桌訪談。在一個小時的對話中,李彥宏對開源閉源、大模型價格戰、智能體、超級應用、AGI等業界熱點問題,表達了自己的看法。
李彥宏認為,開源其實是一種智商稅?!爱斈憷硇缘厝ハ?,大模型能夠帶來什么價值,以什么樣的成本帶來價值的時候,就會發現,你永遠應該選擇閉源模型。今天無論是ChatGPT、還是文心一言等閉源模型,一定比開源模型更強大,推理成本更低?!?/span>
談及“AI超級應用什么時候出現”時,李彥宏表示,“不是說一定在等待一個超級應用的出現”。他認為,在基礎模型之上,應該能夠誕生數以百萬計的各種各樣的應用?!叭绻麅H僅是從0到1,你可能會希望出現某幾個Super APP,也就是幾個公司從中受益。但是今天,幾乎各行各業所有的公司,被大模型加持之后,它都能受益。這種影響力,對于整個社會、對于人類來說,無疑是更大的?!?/span>
李彥宏稱,智能體代表著AI時代的未來趨勢?!爸悄荏w正在爆發,只是現在基數還比較小,大家的體感沒有那么強烈?!被A模型需要靠應用才能顯現出價值,智能體是一個幾乎“放之四海而皆準”的基于大模型的應用,由于它門檻足夠低,可能你連編程都不用,就可以做出一個效果不錯的智能體?!白尭嗳诉M來,他們發揮聰明才智,指不定哪條路跑通了,它就是一個Super APP?!?/span>
以下為訪談精編全文:
1.超級應用什么時候出現?基礎模型之上將誕生數以百萬計的應用
問:由ChatGPT掀起的這個熱潮已經持續一年多了,你也曾表達,接下來超級應用什么時候出現?我們看到國內面向C端的大模型產品形態,看起來都差不多,都是搜索框+問答這種模式,你怎么看?有沒有可能產生一種差異化的競爭?什么樣的好產品會出現?
李彥宏:我倒不是說一定在等待一個超級應用的出現。我更覺得,在基礎模型之上,應該能夠誕生數以百萬計各種各樣的應用。這些應用有些是很小的領域,一個大家可能不太容易想到的應用,但它對于那個領域的問題,解決得比以前好很多。確切的講,我現在還沒有看到,能夠比肩移動互聯網時期超級應用那樣的AI時代的原生應用。但是已經看到,越來越多在各種各樣場景、尤其是To B場景中,利用大模型提升了效率,產生了更多的收入,或者說節省了更多成本的情況出現。
今天,大家都在想,我能不能從0到1,做出一個人們想也沒想到過的東西?變成一個DAU10億的超級應用?這個當然很重要,假以時日也一定會出現。但是,更重要的是大模型在各個領域、各個場景的應用。
從百度文心一言的日調用量來看,已經非常明顯。我們在4月份曾經公布過一個數據,文心一言的調用量每天有2億次。前幾天,我們再公布的時候,文心一言調用量已經到了5億次。也就是說,兩個月的時間調用量是double。調用背后意味著什么?意味著它在給應用產生價值。因為沒有價值的話,人家也不會花錢去調用。
問:C端用戶會有什么樣很好的場景?包括端側、手機上的APP,如何去調用AI能力?
李彥宏:我覺得分兩類:一類是大家比較關注的,過去從來沒有過的應用?,F在比較流行的、類似于ChatGPT這樣的ChatBot,就是聊天機器人。國內每一個大模型公司,都會推出一個相應的APP,或者是網站來做ChatBot。
對于現有這些To C的應用,其實它的信息增益作用也是非常大的。我們在4月份的時候,公布過一個數據,百度搜索今天有11%的搜索結果會由AI來生成,這個比例還在不斷提升。再比如說百度文庫,過去,百度文庫是大家在上面找一些現成的文檔。今天,百度文庫經過大模型改造之后,已經更多地變成了生成式AI應用。你不管想要生產什么樣的文檔,是PPT、是論文的格式、甚至是漫畫,它都可以根據你的要求生成。今年以來,文庫已經有大約2600萬付費用戶。如果說用超級應用的標準來看,它也沒有達到超級應用的水準,但是要看它實際產生的價值,有那么多人愿意為這個產品付費,還是很厲害。這些產品都是過去已經存在,但經過了大模型改造之后,它的能力跟以前完全不一樣了。
問我特別同意你最近在多個場合強調的,去卷AI原生應用,大模型才有意義。但到今天,我們還沒有看到應用的爆發,可能很多應用出來也不太盡人意。所以我的問題或者疑惑在于,如果從模型能力上看,是不是現在還沒有到去卷應用的時候?
李彥宏:大模型應用其實已經逐步在浮現出來,它對于現有業態的改造作用,比從0到1的顛覆作用,更早到來。這個過程一開始大家覺得,沒有那么性感,但是它對于人的工作效率的提升,對于成本的下降,對于打開新的可能性,產生的促進作用,是比那些從0到1的應用,反而更大。如果僅僅是從0到1,你可能會希望出現某幾個Super APP,也就是幾個公司從中受益。但是今天,幾乎各行各業所有的公司,被大模型加持之后,它都能受益。這種影響力,對于整個社會、對于人類來說,無疑是更大的。
只是大家覺得,以前都存在,這個東西我以前見過,所以沒有新鮮感?;蛘咚嗾Q生在生產力場景,它的受眾群體,或者單一應用的受眾群體,不會過億過十億。尤其在C端,在公眾層面體感沒有那么集中。這是大家一直在尋找一個Super APP的原因。
2.為什么智能體是未來趨勢?門檻足夠低,跑通了就是Super APP
問:我們前面聊的是“卷應用”,接下來還有一個關鍵詞叫“智能體”。你說過好多次,AI時代最看好的應用是智能體。但我們目前并沒有看到智能體的爆發,為什么你認為智能體是AI時代的未來趨勢呢?
李彥宏:我覺得智能體正在爆發,只是說它現在基數還比較小,大家的體感沒有那么強烈。但是你要看業界大模型公司,都在做智能體。智能體就是一個幾乎可以“放之四海而皆準”的基于大模型的應用。今天大多數AI原生應用,你用智能體的方式都可以做出來,效果也不錯。由于它門檻足夠低,可能你連編程都不用,就可以做出一個效果不錯的智能體。
門檻足夠低,就意味著越來越多的人,可以做出他想要的智能體。這個有點像90年代中期時候的互聯網網站。你可以把它做得非常復雜,比如雅虎就是很厲害的網站。但是在學校讀書的大學生,他也可以做一個自己的Home Page。由于做網站很簡單,在90年代中后期,就誕生了數以百萬計的網站。大浪淘沙之后,最終出來了一些非常優秀的網站,像Google、Facebook,這是若干年之后才出現。但是早期看,這些網站都是亂糟糟的,一個大學生就能做一個網站出來,這有啥價值?但是你必須得門檻足夠低的時候,讓更多人進來,他們發揮聰明才智,指不定哪條路跑通了,它就是一個Super APP。
問:業界對AI Agent的定義,還是有一點不同。你對Agent的定義是什么?
李彥宏:我首先要考慮,這個門檻要足夠低,一個小白,大一的學生,他也可以很方便地制作一個智能體。當然在此之上,可以有各種各樣比較fancy的玩法,調用工具、反思、長期的記憶等等,這些能力會逐步加進去。
不是說用了最先進的這些能力之后,它才叫一個AI Agent。我反而覺得,我們要把門檻降得足夠低,讓大家覺得,我也可以搞一個AI Agent。
說實話,我認為現在AI Agent用到的這些能力,仍然是非常初級的,未來還會產生我們今天想也想不到的Agent能力。但是這些能力的誕生,反而要依賴數以百萬計的開發者,去開發各種各樣的應用。在他們使用的過程當中產生新的需求,這些需求被解決的過程,就是一個創新過程,就是AI Agent進化的過程。
問:百度有什么比較有意思的AI Agent案例,可以給我們分享一下嗎?
李彥宏:有很多。國內高考是一個非常大的事件,不僅是學生,還有家長都非常重視。過去大模型在干什么事?高考有作文題,我們用大模型來寫一個作文,看它能得多少分。其實你想一想,這個東西在哪用呢?不可能讓一個考生帶著大模型去參加高考。但是高考完了之后,你要估分,要報志愿,要選擇學校,你要選擇專業,一個考生他該報哪個學校,哪個專業,每個人情況都是不一樣,每個人的問題也都是不一樣。這種情況下,哪有一個全能的輔導老師可以告訴你,你最適合的是哪個學校哪個專業?但是AI Agent就可以干這個事情。我們開發了一個高考填報志愿的AI Agent。在高峰時期,一天有200萬人在使用,足見大家對這個東西的認可度和依賴度還是非常高的。
3.大模型對B端的改造比互聯網更大,規模更小一點的模型市場需求量更大
問:通用大模型和行業垂直大模型,它將來到底是什么樣的關系?
李彥宏:大模型在各個垂直場景里怎么用?我們經過了一個探索過程。最初我們的想法是,我把這個基礎模型做得越來越強大,大家叫通用人工智能,在什么場景我都能做得很好。后來發現這件事情沒有那么容易,每個場景都有它自己的道。當應用場景需要反應快的時候,我們需要更小的模型。這種小的模型,它由于沒有大模型通用的能力,所以在垂直場景當中,還要對它做精調,就是SFT,把你行業的數據怎么灌進去,再經過各種各樣的調教,在這個場景里的效果,就能夠跟大模型相比差不多。
類似這種場景,我們也見了很多。去年10月份,我們發了文心4.0之后,主要精力在做什么呢?就是根據最強大的模型,去裁剪各種體量的小模型,比如說十億量級的模型,百億量級的模型,千億量級的模型,這個模型也許擅長角色扮演,那個模型也許擅長邏輯推理等等,根據客戶不同使用場景的不同要求,做出各種各樣的模型。這些模型大多數速度都比EB4要快,推理成本比它要低,所以這種應用是大家更愛用的。今天你要看市場需求的話,規模更小一點的模型,市場需求量是更大的。
問:你為什么認為,大模型對B端的改造,比互聯網對B端的影響更大?
李彥宏:互聯網對C端的改造,我們都是感同身受的,是非常徹底的,是顛覆性的。但是互聯網對B端的改造,我覺得一般般。用的技術比較簡單,產生的增益也沒有那么明顯。但大模型不一樣。我們接觸到的一些能源電力、生產制造等企業,都有類似的需求。比如說,現在國內電動車卷得也很厲害,車內的對話系統,很多也在用文心大模型,使用量也不小,但是對百度來說,這就是一個To B的應用,我們不直接提供給用戶,它是經過了OEM,經過了車廠的集成之后,把這個應用提供給了終端消費者。這種事情其實非常多,而且我們就看調用量,如果調用量上得很快,這就說明我們的客戶需要這些東西,B端靠著這個大模型,靠著AI原生應用產生了價值。
問:在金融、醫療等這些比較嚴謹的領域,生成式AI的幻覺問題,怎么破解?
李彥宏:今天,應該說你會很少發現幻覺問題了,尤其是用最大規模、最強大模型的時候,已經很少出現幻覺問題了。為什么呢?一開始,純粹用原來的Transformer去做出來的大模型,它確實是非常難避免幻覺的,因為它是個概率模型。
要解這個問題,就要在原來Transformer架構上,增加一些東西,專業詞語叫RAG。我只要稍微借助一點工具,就可以消除這樣的幻覺。隨著使用這種工具的能力越來越強,你就會發現,在各種場景下,幻覺是越來越少的。
當然,今天這種生成式人工智能,更像是一個Copilot,在特別嚴肅、對準確度要求特別高的場景下,我們還不能讓它全部自動實現,還要靠人把最后一道關。這樣,一方面可以提升效率;另一方面,在準確度上、在消除幻覺上,也能夠起到比較重要的作用。
問:現在企業對AI的使用成本怎么看?是否愿意為AI付費?你在跟一些企業客戶交流的時候,他們的態度是什么樣子的?
李彥宏:當你處在市場經濟環境當中,企業其實是非常理性的。尤其是中小企業,賬算得非常精。如果這件事情能夠讓我降本增效,能夠讓我賺到更多的錢,那我就會用它。如果不能,你再吹破天,我也不會用。市場會告訴你,大模型到底有用還是沒用?我們看到調用量的迅速提升,確實是因為在用戶側、在客戶側,它為企業產生了降本增效的作用。
我再舉個例子,比如說在招聘場景。過去是怎么做的?是HR坐在那,一份一份簡歷篩查,然后一個一個面試,面試100個人,最后篩出來10個人,再進行下一步面試,效率是非常非常低。但是大模型進來之后,它可以非常明顯地去提升效率。因為,用大模型去理解這是一個什么人,理解這個老板要招什么樣的人,然后進行匹配,它的效率就會高很多。
而且,你去算一算模型的推理成本,其實幾乎是可以忽略不計的。尤其在國內,現在大模型價格戰是非常厲害的,百度的輕量級模型都是免費的,這個免費不僅僅指的是模型免費,實際上算力也送你了,你本來要有電腦,要有帶寬等等,這些都沒有了,你只要來用就好。
4.如何看“開源閉源之爭”?開源是一種智商稅,閉源模型比開源模型更強大
問:開源閉源問題是業界關注焦點。你認為,閉源模型會持續領先。但我們看到,開源大模型越來越多,甚至有些能力都不亞于我們說謂的GPT4了,這個問題你怎么看,你們還是會堅定的走閉源路線?
李彥宏:我覺得,開源其實是一種智商稅。你仔細想一想,我們為什么要做大模型?是它能夠有應用,這些應用在各種場景下,能夠為客戶為用戶提升效率、降低成本,產生過去產生不了的作用。所以當你理性的去想,大模型能夠給我帶來什么價值?以什么樣的成本給我帶來價值?你永遠應該選擇閉源模型。今天這些閉源模型,無論是ChatGPT還是文心一言,以及其他各種各樣的閉源模型,它的平均水平,一定是比這些開源模型更強大,推理成本一定是比開源模型更低。
問:百度對To B客戶,是“閉源+公有云”這樣一套打法,有什么考量嗎?
李彥宏:ToB的客戶,他要選擇的是一個性價比最好的模型。一方面,模型要對他的應用產生價值,另外一方面,成本要足夠低。很多時候,你看著有用,一算成本不劃算,客戶就放棄了。這是為什么我剛才講,開源模型打不過閉源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就會發現,最好還是去選擇閉源模型。當然,閉源模型不是一個模型,它是一系列的模型,根據你的使用場景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的變種,可以根據用戶的需求,讓他來做選擇。
閉源模型還有一個開源模型不具備的優勢:這些相對來說規模更小的模型,都是從最大最powerful的模型裁剪出來的,裁剪出來這些更小規模的模型,仍然比那些同樣規模的開源模型要效果更好。
問:百度對于中小模型、模型蒸餾上,有什么樣的策劃?
李彥宏:我們看到的真實需求,在絕大多數情況下都不是最大的模型,它都要求這個模型變小。變小意味著什么?速度快,成本低。比如說,我干這個事兒,總共能夠給我帶來每年100萬的增益,但使用最大的模型要120萬的成本,那我肯定不干了。那我就會給大模型公司提要求,把成本降到80萬,甚至降到8萬。那我們就得想,怎么把最強大的模型,蒸餾到足夠小,成本足夠低,滿足這個場景需求。因為閉源有一個最強大的基礎模型,根據模型蒸餾或者裁剪出來的小模型,比那些開源模型做出來的東西更有競爭力。所以我們覺得,To B的機會仍然在閉源不在開源。
5.大模型價格戰不可避免,最終還是比誰的技術好、效率高
問:我們現在看到價格戰已經開始打起來,其實還是蠻出乎我們的預料,這么快。
李彥宏:價格戰幾乎不可避免,在中國互聯網干了這么長時間,其實已經對價格戰非常熟悉。但就像你講的,確實來得比我想象的更早一點,這么早就開始把價格打到幾乎不可思議低的地步。但某種意義上講也不是壞事兒,當你足夠低,甚至免費的時候,就會有更多人有積極性來嘗試,在大模型基礎上去開發各種各樣的應用,大模型對于各行各業的滲透速度會更快。
問:很多閉源大模型API調用費越來越低,大模型靠推理收費的商業模式未來成不成立?以后大模型比拼的是哪些點?
李彥宏:大模型技術天花板還是很高的,今天我們還是對于大模型的能力有很多不滿意的地方,仍然需要很多非常優秀的技術人員、需要很多算力、需要很多數據,才能訓練出下一代大模型,我們還可能需要下下一代、下下下一代的大模型。
所以最終我覺得大家是要去拼誰的技術更好,你的技術好,你為客戶產生了更好的價值。今天之所以把這個模型打到足夠低,是因為現在模型的這個能力其實還沒有到最好,沒到最好的時候,大家都差不多的時候,就會誰的價格低就用誰的。
時間長了之后,市場本身會回歸理性。最終還是比誰的技術好,誰的效率高,誰會勝出。
問:你覺得這個價格戰會持續多久的一個時間呢?
李彥宏:這個很難講,現在有些創業公司是玩家,也有很多非常大型的互聯網平臺公司是玩家,其實理論上講是可以燒很長時間。但我覺得燒錢不是事情本質,事情本質仍然是誰的技術更好,誰的效率更高,當你的技術好、效率高的時候,你就不怕去打這個價格戰,所以多長時間都OK,最終會是優勝劣汰的過程。
問:你覺得在中國市場會是一個贏家通吃這樣的一個局面嗎?還是說等價格戰之后會剩下幾個主要的?可能還有一些更小一點的?
李彥宏:這次生成式AI是對整個IT技術棧的大變革,過去IT技術棧是芯片層、操作系統層、應用層或者軟件層,就這三層。到生成式AI之后,IT技術棧變成了四層,芯片、深度學習框架層、模型層、應用層,我認為在每一層可能都會誕生至少2—3個大玩家。
應用層的話,可能會有數以百萬計、甚至數以千萬計的各種各樣應用出來,也會逐步出現超級應用,既然是超級應用,當然不會很多,可能是三五個。
模型層我覺得也許兩三個就足夠了,因為最后大家比拼的是效率,你的效率如果不夠高的話,慢慢就覺得說還不如用別的。
6.Scaling Law短期內不會被顛覆,圖靈測試不再是標準,AGI需要十年以上才能實現
問:Scaling Law還會持續有效嗎?
李彥宏:Scaling Law可能還會有若干年的生命周期。但與此同時,在此之上會疊加各種各樣的創新。剛才講的智能體,它的反思、進化能力等,其實跟Scaling Law已經是兩個路線在發展,但它仍然是基于Transformer這類大模型往上做。未來再過一兩年,還會出現什么新的技術創新,在此基礎上再去疊加,大家都在探索。換句話說,我覺得Scaling Law短期之內不會被顛覆,但是在Scaling Law之上會疊加出來很多我們現在可能還無法想象的創新。
問:你認為AGI實現的標準是什么?還有哪些路徑可以讓我們更快地通向AGI?
李彥宏:業界確實還沒有一個標準答案。以前大家覺得,通過圖靈測試就實現AGI了,實際上現在大模型已經通過了圖靈測試。人們所說的AGI,其實大多數時候已經不是只通過圖靈測試了。
那么什么叫AGI?在我心目中,AGI就是機器或者說AI,能夠具備人在任何場景下所具備的能力。Artificial General Intelligence,就是通用人工智能,它不管在什么場景下,能力都是跟人一樣的,這是一個很高的要求。
所以真正要實現AGI,我認為還需要很多很多年。業界有人說AGI可能再過2年,或者再過5年能實現。我自己的判斷是10年以上,也許更長的時間。我們聽到很多人講,AGI是一種信仰,當你把它當做一種信仰的時候,誰的信仰會明年就實現?這是自相矛盾的。如果是一個信仰,它就是你值得為之長期奮斗的一個目標。
問:現在GPT5一直在延后,擔憂的聲音也越來越高,AGI沒有辦法用Scaling Law這個方式去帶我們實現了,你對這個有擔憂嗎?
李彥宏:我不是很擔心這件事情,我覺得大家應該更關注應用,而不是關注基礎模型,某種意義上基礎模型迭代速度稍微放緩一點不是壞事,如果今天的應用開發者,有一個相對穩定的基礎來開發應用,其實是效率更高一些的,如果模型天天在那兒練,每天都要重寫一遍過去的代碼,那是很累的。但是在現有基礎模型上不斷去做微調,去做一些漸進式的迭代和和創新,其實你看到是一直在發生的,無論是OpenAI不斷在推的,還有百度我們的Turbo模型、更小量級的模型等等,都是在根據市場的需求在做迭代。
但長遠來講,我確實認為下一代大模型一定會比現在這一代模型強大得多。什么時候推出來我不是很著急,我們應該更多的去看真實的市場需求,下一代模型在迭代的時候,要根據市場需求來迭代。
(封面圖及文中圖片來源:百度)