只有最大的使用量才能打磨出最好的模型,也只有最好的模型才有最大的使用量。
作者|甲小姐 王藝
編輯|劉楊楠
“價格戰”,是大模型市場繼參數量、長文本、營銷戰、融資額等熱門話題后最新的關鍵詞。
導火索是一場火山引擎的發布會。
2024年5月15日,火山引擎一口氣發布9款大模型,同時升級了火山方舟、應用服務、機器學習平臺、云底座,并公布模型調用價格——豆包pro 32k模型推理輸入定價是0.0008元/千tokens,比行業的價格降低了99.3%;豆包pro 128k模型正式定價是0.005元/千tokens,較行業價格降低了95.8%。
超低定價讓字節跳動一躍成為大模型“頂流”。
過去一年,字節跳動在“百模大戰”中十分低調,最早發布的C端產品“豆包APP”也沒有任何宣傳就悄然上線。
在各家都爭搶著卷參數、卷文本長度、卷營銷,試圖在大模型時代搶占“先發優勢”的今天,字節跳動作為“后發者”,率先在B端掀起了“價格戰”。
時間窗口“錯位”的背后,是字節跳動追求“最強模型,最低成本,最易落地”的大模型戰略主張。這個主張的出發點,便是“以客戶為中心”。
“B端和C端不一樣,企業決策更理性,‘市場領先于產品’的邏輯不一定合理。你發得早,別人一測發現不好用,那你提早發反而是浪費雙方時間?!?/span>火山引擎總裁譚待告訴「甲子光年」。
本文,甲小姐對話火山引擎總裁譚待,聊聊大模型時代的“字節主張”。
1.先發優勢vs后發優勢
“如果模型沒有達到閾值,企業直接做應用會很難,像是退回小模型時代,做各種場景的專業定制——那不是大模型時代做行業應用的范式?!?/span>
甲小姐:去年各家都在密集發布大模型,為什么你們現在才發?
譚待:這是字節的風格,我們不希望發布半成品。一年前,各家發的模型沒有特別好的,要么缺模型能力,要么缺行業應用。現在我們的模型能力已經準備好了。
甲小姐:“模型能力準備好”的標準是什么?
譚待:是有沒有更多人把模型用起來。
甲小姐:OpenAI發布ChatGPT、Sora,百度發布文心一言的邏輯都是利用時間窗口搶占“先發優勢”,你們氣定神閑的原因是?
譚待:C端決策很快,可以接受半成品,數據閉環更明顯。互聯網的C端邏輯是,先做一個半成品,免費對外提供,用戶對產品容忍度也高,他們來使用就會產生更多數據,廠商就能夠更好地完善產品。
但B端和C端不一樣,企業決策更理性,“市場領先于產品”的邏輯不一定合理。你發得早,別人一測發現不好用,那你提早發反而是浪費雙方時間,后面出現更好的產品,客戶也會考慮用,和云計算是一個道理。
甲小姐:你認為做B端不需要追求“先發優勢”?
譚待:做B端搶先發優勢的前提是產品或服務要達到及格線,因為做B端更要為結果負責。如果你的產品足夠“可用”,搶占先發優勢肯定是有價值的。
甲小姐:及格線是什么?
譚待:企業應用需要更長的文本,更少的幻覺,對底層模型的智力水平要求更高。去年大家以為2023年下半年國內大模型就能接近GPT-4,但這個判斷還是偏樂觀。直到今天,國內模型才逐漸趕上GPT-4,真正能大規模落地應用,相當于早“樂觀”了5個月。
甲小姐:我們在甲子內部討論過“先發優勢vs后發優勢”的問題,第二名是否永遠是投入產出比最高的?就像長跑比賽時一直跟在第一名后面的人,可能在最后沖刺時反超?
譚待:對,就像賽車一樣,第一名有很大優勢,但第二名應該把跟隨優勢發揮好,前提是第二名足夠優秀,普通賽車手也很難反超。
回到AI落地上,AI能力的強大要體現在底層通用能力上,而不是私有化定制上。過去很多AI公司在落地過程中有大量定制化需求,AI的底層通用能力非常接近,幾十個公司可能都差不多。
但大模型時代差距就很明顯了,大模型時代也不可能只有一家遙遙領先。全球的幾家大公司都咬得比較緊,但玩家數量明顯少了一個量級。公有云模式下,規模越大,成本越低,這是大公司很大的優勢。
甲小姐:大模型的應用落地沒有大家想象中快?
譚待:美國還是挺快的,因為他們的基座模型率先達到了閾值。如果國內的模型都沒有達到閾值,企業直接做應用會很難,就像是退回到小模型時代,做各種場景的專業定制——那不是大模型時代做行業應用的范式。
2.比參數vs比價格
“如果現在還有一家公司強調自己參數特別大,那大概率是做得很差?!?/span>
甲小姐:簡單概括5月15日發布的整體目標,是什么?
譚待:這次是火山引擎首次正式且大規模地展示我們在AI領域的全棧服務,包括從模型層到應用層,再到基礎設施的全套服務。這也印證了大會主題:探討當今技術發展的“FORCE原動力”。
甲小姐:當前技術進步的“原動力”是什么?
譚待:就是大模型?,F在中國的大模型雖說沒有完全趕上世界最領先的基座模型,但已經到了“可用”的階段。
甲小姐:你們模型家族的9個模型——通用模型pro和lite版、角色扮演模型、語音合成模型、聲音復刻模型、語音識別模型、文生圖模型、Function call模型、向量化模型——它們是客戶需求驅動的,還是你們已有的技術供給驅動的?
譚待:兩者相輔相成,但最終肯定是市場需求驅動。市場需求不僅來自外部,也來自內部。沒有需求是做不好技術的。比如語音為什么重要?因為這是用戶與模型交互的第一步,輸入輸出做不好,用戶體驗就不可能好。
甲小姐:在你們內部的籌備時間線里,新發布的這些產品技術是同時做的,還是有先后因果關系?
譚待:我們是故意延后發布模型的,肯定要等模型能力足夠了,才能在上面做應用。我們花了最多的精力提升模型能力,同時要考慮不同場景的性價比。
比如,企業端應用會對知識庫有很多需求,除了工程能力,模型的切片和召回能力同樣要很強,我們做向量化大模型也是為了貼近知識庫場景。
用大模型的人越多,需求就越多,就需要更多的Agent滿足用戶需求,因此需要一個Agent平臺幫助開發者更好地搭建Agent。
大模型能改變IT本身,IT的生產力是很多公司或個人進行數字化、智能化升級最重要的瓶頸。現在很多事不需要專業開發者來做,我們的產品能讓更多個人開發者更容易地把智能體和bot開發出來,才有了Coze這條產品線。
另外,還有一些產品線要不斷迭代,比如在工程能力上,新的異構算力出現后如何做好適配,怎么通過分布式的推理把芯片價值發揮到極限,以及安全能力的升級等。
甲小姐:什么是真需求?
譚待:有的需求你從業務角度就能看到,比如聊天時有個助理幫我們把紀要總結好了,你肯定會用。不像有些需求,比如元宇宙是否有真需求,這就不好說。
甲小姐:你們在發布會上提到,成本是火山的第二大優勢。對比全球,你們的成本做到了什么水平?
譚待:從定價角度肯定是全球領先的,從技術角度我們了解的全球有幾家做得也很不錯。
甲小姐:這次發布后,大家最關注的是價格。你們為什么在第一次亮相的時候就要打價格戰?
譚待:我們總結了大模型應用落地的三大挑戰——模型能力、應用豐富度以及模型成本。現在大模型還是太貴了,模型的應用成本不該是這樣。
大模型的超低定價,來源于我們在技術上有信心優化成本。例如通過對模型結構的優化調整,在工程上從以前的單機推理演進到現在的分布式推理,把不同負載的推理混合調度,這些技術能夠把各種各樣底層算力用得更好,同時大幅降低成本,讓每一家企業都能用得起大模型。
甲小姐:定價是一個復雜的“學科”,你們如何定價?
譚待:我們還是愿景驅動,基本按照調用tokens的數量來收費。
甲小姐:“愿景驅動”可以決定便宜多少嗎,比如便宜50%還是90%?
譚待:“便宜百分之多少”是競爭驅動。愿景驅動是站在客戶角度,考慮他們的負載和試錯成本。第一,定價要對客戶合適;第二,定價不能不可持續。
甲小姐:你的“愿景驅動”是指根據客戶預算,在不虧錢的情況下幫他們解決問題嗎?
譚待:不只是客戶當前預算,而是考慮他們真正的需求。
定價分兩個階段:第一,把PoC(概念驗證)做好,通過應用、模型的落地證明價值,才能加大投入,這個階段成本肯定受到制約;第二,把成本做得更低,這樣大家就能更好地做各種創新嘗試,這個市場就起來了。大的云廠商應該有這樣的擔當,讓大家更好地做事情。
如果模型定價不可持續,只靠補貼做,等規模做大了再漲價,可能不是很好。以前一些云廠商一分錢中標,二期漲價綁定客戶,這是非常不好的行為,這不是站在業務本質上看問題,應該讓技術和產品成為最重要的驅動力,而不是讓短期的商業行為成為驅動力。
甲小姐:有位創業者在朋友圈評價“不談參數量談價格是不是耍流氓”,你們在發布會沒有談參數。去年大模型廠商都在卷參數,然后卷長文本,在你們看來,這些并不是值得強調的?
譚待:也不能叫卷吧。卷參數說明大家對這個事情的認知沒到位,覺得參數越大越聰明,不完全是的。以前大家覺得Dense模型(比如GPT-3、Switch-Transformer等)更好,現在大家基本都往MoE轉。如果現在還有一家公司強調自己參數特別大,那大概率是做得很差,因為認知水平停留在一年前了。
3.最大用量vs最好模型
“只有最大的使用量才能打磨出最好的模型,也只有最好的模型才有最大的使用量?!?/span>
甲小姐:這次發布會上提到“最大的使用量是火山引擎的優勢之一”。你們怎么知道你們的使用量最大?
譚待:各家都會披露數據,DAU是客觀的,因為有第三方榜單。短期內C端用戶量肯定會更大一些,看C端調用的token數更有參考性。B端調用質量可能更高,但B端數據還沒有公開。
甲小姐:“只有最大的使用量才能打磨出最好的模型”,這是市場共識嗎?
譚待:從第一性原理出發,如果模型能力不強,使用量不可能起來。以前大家都根據榜單排名來評判模型能力,這不太夠。模型參數那么大,針對題目提前做一些功課,很容易hack模型真實能力。但使用量很難hack,很多人可能第一次會用,第二次就不會用,所以使用量要看DAU或MAU,很多公司披露的是總的用戶數,這個水分就大一些。
甲小姐:你們的使用量最大是否和字節C端用戶基數本身就很大有關?
譚待:C端產品可以互相導流的前提是產品有相似性,比如原來看圖文,現在看視頻,但都是看新聞,就很容易轉化,但大模型應用是個新類別,直接導流效率并不高。
用戶不會莫名其妙地增長,只有最好的模型才有最大的使用量,這是因果互相促進的動態過程。都沒有人用的東西怎么可能是好東西呢?特別是技術,用的人越多,技術就會越好,這是整個技術領域的共識。
甲小姐:AI原生APP要成為超級產品,最重要的特征是什么?
譚待:超級APP需要有雙邊網絡——非常多的用戶,非常多的開發者或創作者。只有把雙邊網絡構建好,才能成為超級APP。抖音就是典型的例子,豆包做扣子也是這個思路。
甲小姐:如果使用量大是前提,字節跳動有天然的優勢。這是否意味著創業公司很難打磨出最好的模型?
譚待:不一定。比如OpenAI就是用戶量最大的創業公司;搜索領域的Perplexity做得很好,也是創業公司。而且創業公司有時束縛比較少,大家對它的容忍度高,反而能走得更快。
甲小姐:對于創業公司來說,他們首先需要把流量做起來。
譚待:對,但這個流量肯定是靠能力做起來的,不是靠短期的營銷投放行為。
甲小姐:目前你們的模型每天處理1200億文本tokens,大使用量的產品分布有哪些特征?
譚待:各種品類都有,比如陪伴、聊天、互動、知識問答助手、搜索等;在模式識別、分類等傳統NLP領域,大模型的處理更好,比如翻譯、語音處理等;還有生成PPT、小說等創作類應用。
甲小姐:作為云廠商,你們有沒有看到一些使用量增長特別快的“當紅炸子雞”類產品?
譚待:對話類應用增長特別快。我們印象最深的就是豆包APP增長很快,消耗了我們很多基礎資源;貓箱(角色扮演類應用)增長也很快。
4.抓手vs主張
“不是站在抓手的角度看,而是站在主張的角度看?!?/span>
甲小姐:幾年前采訪你,還是關于AB測試,火山引擎很聰明,把AB測試推到極致,帶出字節的數據驅動文化和云計算的優勢。在大模型方面有類似AB測試這樣的抓手存在嗎?
譚待:這會難一些。數據驅動的理念大家都認同,但怎么實現還需要具體措施。AB測試是數據驅動的顯性化場景——所有事情都做AB測試,數據驅動大概率就會做得很好;但AI的應用面特別廣,各種環節都可以通過AI加速,不像數據驅動那樣有一個收斂點。未來可能會有一種方式衡量AI轉型程度,比如企業有多少Agent,消耗多少token,這可能是一個指標。定指標是一個技術活。
甲小姐:目前什么是你們的抓手?
譚待:我們不是站在抓手的角度看,而是站在主張的角度看。我們的主張是:最強的模型,最低的成本,最容易落地。
甲小姐:作為火山引擎的一號位,你做決策時的底層邏輯是什么?
譚待:管理方面有“市場”和“產品”兩個維度,以及“內部”和“外部”兩個視角。先確定目標和愿景,再把市場和內部產品的Mapping做好。這件事特別復雜,比如如何判斷一件事情的優先級就很重要。
具體來看,第一,看產品該如何提升,比如主模型做得比較好了,但端側還有很多需求,我們就會看端側應該做什么樣的事情。
第二,看哪些行業、客戶對模型應用的需求比較大。比如現階段,手機和汽車行業對模型的需求更明確,這些行業中所有客戶使用我們的模型后有什么反饋,再把這些反饋作為外部視角,反向驅動內部不斷優化模型、產品、服務的質量以及成本。
甲小姐:這個Mapping中,有哪些是你們絕對不會做的?
譚待:還是挺多的,我們的模型在私有化方面優先級比較低?,F在做模型重要的還是“追趕”,追著全球最強的模型來做。在這個過程中,你會發現你的資源再多也是不夠的,如果你分心,可能對進度影響較大。
甲小姐:什么是讓你感到“分心”的事?
譚待:我們的目標是把豆包做成最強的模型,優先級最高的肯定是先把公有云版本做好,之后再考慮私有化。對于一些客戶出于安全提出的私有化需求,火山方舟會和優秀的私有化模型合作,但是豆包模型要focus在把每一個版本的功能做到最好。
甲小姐:有種聲音認為,中國很多公司的底層訴求就是“私有化”。
譚待:公有化和私有化長期不矛盾,短期在資源優先級上是矛盾的。
第一,把模型私有化本身不難,但在模型不夠好的時候分心去做私有化,會影響模型研發進展,比如OpenAI都沒有精力做私有化。雖然短期看上公有云的模型會有很多矛盾點,但長期看這些問題都可以解決。
第二,模型私有化之后,工程能力的優化要客戶自己來,這是很難的,特別是在異構算力芯片的情況下。此外,推理需求的“潮汐”屬性非常大,公有化模型白天可以給工作場景提供算力,晚上可以給娛樂場景提供算力。最后,私有化的成本也不劃算。當然,有些公司不差錢就另說。
甲小姐:你們顯然更不差錢。
譚待:使用頻次不高還好,如果員工每天都用AI助手,成本肯定不低。
甲小姐:過去一年很多云廠商都做垂直整合,但火山選擇做平臺化。這次發布之后,火山引擎跟其他云巨頭的布局越來越像了嗎?
譚待:垂直化和平臺化不是非黑即白的,“一定要垂直整合”或者“一定要平臺化”都太主觀了,應該以客戶為中心,看什么對客戶最有價值。具體來看,要做到我剛才說的三點——最強模型、最低成本、最易使用,這三點是一個組合,最強的模型不一定是成本最低、最易使用的模型。
甲小姐:你們的三個主張無法在一個產品中自洽,所以你們內部有人專攻“最強模型”,同時用生態化的方式解決“最低成本”和“最易落地”的問題嗎?
譚待:是的。未來某個領域可能會出現最強的垂直模型,因為他們有大家都沒有的行業數據。如果是這樣,對火山而言,最重要的就是把這個最強的行業模型放到我們的平臺上。
甲小姐:所有云廠商都必須選擇“自家模型+多家模型”的路徑嗎?
譚待:對,但有的廠商可能做不到。
甲小姐:什么樣的客戶會追求“最強模型”?
譚待:模型最終會在很多場景輔助、替代人類,當一個行業對從業者素質的要求很高,需要模型的能力就更強。有些行業需要人員素質沒有那么高,需要的模型就沒那么強。
5.老品類vs新品類
“我們還是更看好目前已經大量存在的品類?!?/span>
甲小姐:火山引擎的主要獲客方式是什么?目標客戶的畫像是什么?
譚待:獲客方式和大家差不多,但我們的目標客戶有優先級,優先級最高的是場景面向終端用戶的企業,因為他們的客戶數量大,數字化和AI能發揮更大的價值。
甲小姐:央國企和政府不是你們的主要客戶群體嗎?
譚待:是之一,不是最大的。所有云廠商最大的客戶群體是digital native(數字原生)的客戶,只不過現在越來越多的行業變得越來越digital native,比如新能源汽車和傳統汽車,它們的digital native程度是截然不同的。
甲小姐:那些沒有digital native的傳統企業呢?我前段時間采訪一個創業者,他說,“一家中型上市公司,預算有3000~5000萬,想要做云計算,找供應商,應該找誰來做?找大廠客戶會覺得貴,找小公司又不放心?!?/span>
譚待:在私有化部署、定制化開發方面,中小公司和創業公司成本更低,大廠確實貴,因為大廠人工成本高。但大家做的事情不同,海外的云廠商、大型軟件廠商主要做最通用的部分,落地部分由伙伴來做。我們也希望在火山建立這樣的生態,不要所有事情都沖在前面做。
現在很多云廠商也在反思,大廠規模大、技術密度高,應該做最底層的事情,做得又便宜又好。比如騰訊要以自有產品為主,阿里把公有云和私有云分開。
甲小姐:客戶案例中,你們的落地方式有幾種?
譚待:我們不是按照客戶來看,是按場景來看。場景復雜度不高的,只需Prompt Engineering就可以;復雜度高的,先做好有代表性的場景,再做其他場景。找到共創的客戶后,我們會一起評估難度,如果難度不高,我們只提供指導;如果難度大,我們就用知識庫和RAG提供支持。在這個過程中,我們會沉淀一套標準化的客戶解決方案,未來可以推而廣之,實現規?;?。
以前陸奇給我推薦了一本書叫《閃電式擴張》,里面有句話我印象很深:“當一個新的東西出來,在早期一定要做一些不可規?;氖虑??!?/span>我們現在的算法服務本質上是不可規?;氖虑?,但可以由此找到可規?;穆?。
甲小姐:在這個“不可規?;钡牟糠?,面對一個客戶,你們的服務分幾個階段?
譚待:整體類似輕咨詢。第一階段,我們先了解客戶要在哪些應用場景做哪些事情,甄別這些事是否靠譜,看看客戶現在做到什么程度,一起規劃怎么做;第二階段是幫助客戶建立評測集,因為如果沒有評估標準,優化就無從談起;第三階段是跑完結果后,決定具體的解決方案,可能通過Prompt Engineering解決,如果不行,就帶一個知識庫或通過SFT(Supervised Fine-Tuning,監督微調)的方式解決。最后總結經驗,形成最佳實踐,供其他客戶參考。
甲小姐:在見客戶的過程中,有遇到超出預期的事情嗎?
譚待:有些場景下,和客戶聊天本身也是一個共創的過程。比如我們在汽車上做了一個大模型交互的實踐,因為汽車屏幕很寬,可以一邊聊天一邊顯示對應的內容。后來和手機廠商聊,他們發現這個方案特別適合折疊屏,這就是一個典型的共創。
甲小姐:為什么這次成立了汽車大模型生態聯盟和智能終端大模型聯盟?
譚待:汽車和終端是兩個比較明確的方向,汽車聯盟的愿景是定義車與人的新交互范式,手機聯盟的愿景是定義新的AI應用和AI手機。這兩個行業頭部企業集中,大模型在其中的天花板就比較高,有可能重新定義行業的交互方式。但有些行業比較分散,不適合通過聯盟來做,只需和具體客戶合作就好。
甲小姐:在決賽圈可以看到的終端產品形態里,比如手機、PC、汽車、AR、VR、人形機器人,你們更看好哪個?
譚待:我們還是更看好目前已經大量存在的品類,本來就有很大的市場,通過AI可以讓它們變得更好,比如手機、PC、汽車、耳機、手表等。人形機器人或者新型AI硬件,由于AI落地和硬件本身的挑戰,短期成功概率比較小。
6.效率vs增長
“最重要的事情就是:最強的模型,最低的成本,最容易落地?!?/span>
甲小姐:你的OKR是什么?
譚待:我的OKR就是火山引擎的愿景。
我們整體的愿景是成為全球領先的云和智能服務商,幫助企業降本增效、加速創新。可能未來五年的O(Object)都是這個,但我每一年會根據當下最重要的事情來拆分。比如搞清楚智能化概念里最重要的事情,我們做自動駕駛、做大模型的一些探索,都是為了搞清楚這些事?,F在很清晰了,最重要的事情就是最強的模型,最低的成本,最容易落地。
甲小姐:你今年的O是什么?
譚待:首先,就是剛才說的三件事。其次,雖然很多人都在看AI,AI的增長也很快,但對大部分企業來說,存量還在CPU上,他們又面臨AI轉型的難題,加上宏觀經濟的影響,是很難的。我們還有一個目標,通過各種方式讓企業在CPU的workload上極致降低成本,這樣他們才能有更多的預算去做AI的創新,否則原來的東西成本很高,會影響他們的創新能力。
甲小姐:過去幾年有沒有遇到什么坑或者教訓?
譚待:我們有一點比較幸運,就是我們做得比較晚,只要能虛心接受意見,前面那些坑我們大概率不用再趟一遍。
甲小姐:有的客戶在采購大廠云服務時,看重的是技術之外的東西,比如資源置換。買你多少云,你給我導入多少服務或者項目。在整個云和AI生態里,什么需求是最solid的?什么是最真的需求?
譚待:第一,資源置換獲得的收入總盤子可能并不夠大;第二,這種模式不會特別長久,因為很多客戶也越來越聰明,發現用資源置換換不到什么實質性的東西。這是這個行業的泡沫,最終還是要回歸到正常情況。
云本身是一個規模經濟,成本肯定很關鍵,價格不貴,但質量好,用戶用起來放心。國外一些企業,它們客戶的收入的增量已經很小,更多關注效率,要通過效率的提升解決利潤增長的問題;而在中國,因為整體還處于一個增長的環境,除了效率,人們也關注業務增長,這里面可能要求你不僅有IaaS這些東西,還要有跟業務結合的一些點。
火山一開始講的“云上增長”也是這個邏輯,云上增長不僅指你在基礎層面提供成本低、質量好的基礎服務,需要有一些業務的solution幫他做好這個事情。這是火山的一個優勢,中國客戶更看重這一點,因為他們不僅關注效率,還希望技術能夠帶來業務增長。
甲小姐:這就是你們強調的“商業新增長”?
譚待:對,但這個背景是因為中國經濟仍在增長。如果經濟不是增長階段,大家會更看重效率。比如原來有五件事情,每件事情效率提高10%;或者原來一個流程有五步,現在變成四步,這都是降本增效的一種方式。但如果只是粗暴地降本,上游壓下游,這種方式是不可持續的。
甲小姐:在降本增效和業務增長之間,哪種需求更主流?
譚待:以前增長是關鍵,現在兩者同樣關鍵。
但現在的宏觀經濟影響更大,大家對降本更看重。降本是階段性的痛點,長期還是增長更重要。
云的好處是它總得買。和軟件不同,軟件如果覺得貴,明年你不用,退回去用Excel或許也可以。但云是硬件和軟件的結合,只要業務在,就得有消耗,除非客戶不干了。中國的軟件行業和SaaS行業的全球占比遠小于GDP占比,但中國云的占比和GDP占比是接近的,所以云有一定的剛需性。只要做數字化,就一定需要云,只不過是自己做IDC(Internet Data Center,互聯網數據中心)還是用云服務的區別。
7.上云vs下云
“在AI時代,下云是一件不可能的事情?!?/span>
甲小姐:今天中國的云計算和AI市場處于什么樣的態勢?
譚待:AI和云計算都屬于競爭激烈,只是程度不同,但是發展空間都很大。
甲小姐:仍處于戰局遠未定、深海有珍珠的狀態?
譚待:現在競爭確實白熱化,但是這個“?!泵磕甓荚诓粩鄶U大,還是值得重點投入。云的“?!币呀浐艽罅?;大模型競爭的激烈程度跟模型的ready程度有關,現在還處于很早期,全球都一樣。
甲小姐:為什么云計算的“?!边@么大,競爭還會白熱化,而沒有形成差異化競爭?
譚待:公有云是一個產品,所有的公有云都長得一樣;私有云是幾百個玩家、幾百個產品,就像軟件,SKU太多、太散了。
甲小姐:過去一年關于AI信息量很大,什么是轉瞬即逝的,什么是真正沉淀下來的?
譚待:沉淀下來的是大家已經沒有人不相信AI是未來,是一個大共識。
甲小姐:但細節處還是有無數的非共識?
譚待:只要大共識存在就無所謂。
甲小姐:不是所有人都覺得非共識無所謂,這似乎是大廠才有的底氣,比如英偉達恨不得大家都吵起來,最好有一些不可證偽的命題。
譚待:這是個好問題。平臺里的公司就是池塘里的魚,一個魚能長多大取決于池塘有多大,對平臺公司來說,只要你池塘夠大就可以了,剩下的都是細節。平臺公司想的是“如果你池塘很小,那你永遠長不大”。
甲小姐:假如有一天AI最頭部企業的股價跌到了只剩10%,這個趨勢會幻滅嗎?如果這件事發生,大家會不會認為AI“供給很強,但是需求沒多大”?
譚待:你可以看一個最主要的、確定性的指標,就是各個云廠商MaaS服務的使用量。
甲小姐:在大模型出現之后,你們的客戶在云和AI這件事情上花的錢怎么變化?是總盤變大了,還是把蛋糕從原來的地方切過來?
譚待:大模型肯定讓云的盤子變得更大了。大模型對算力密度的要求比CPU高很多,意味著使用成本也更高。云在成本、易用性、價格彈性、穩定性上優勢更突出,能加速大家“上云”的過程。
現在大家都講“下云”,在AI時代,“下云”是不可能的,因為難度太高了。無論做云還是自己做IT基礎設施,最終都要做好IT治理。云很容易,但是起新的應用很快,會產生很多新的負擔,如果不治理就容易浪費錢。這不是云本身的問題,而是治理的問題。
甲小姐:《IBM轉型指數:云現狀》報告顯示,80%對企業數字化轉型有決策力的高管已經考慮或正在考慮將企業已經部署到公有云上的工作負載遷回私有的基礎設施。
譚待:IBM是私有云企業,他們有很強的立場這么說,但如果80%的企業都這么做,為什么全球云市場每年還在增長呢?
甲小姐:現在全球云市場每年增長的可靠數字是多少?
譚待:你可以查下AWS和阿里云公開的財報數據,再結合底層設備廠商的財報數據,根據每年芯片的出貨量,就可以估算出云在整體IT支出中的占比是增長還是下降。趨勢肯定是在上云,你也可以問問豆包APP,看它是否能回答這個問題(笑)。
于是我們就查了一下(甲子光年向豆包提問頁面截圖)
甲小姐:大模型會讓這個數字更高還是更低?
譚待:IT支出的一個大頭在研發上,企業總能找到合適的人去做定制化開發,比SaaS做得更好。大模型出現之后,定制化開發還是需要人來做,只不過由AI輔助人來完成。這種輔助過程本身就在消耗云,長期來看這是一個非常大的利好。
8.用戶規模vs服務器規模
“我不用做短期投資換收入、資源互換的事情?!?/span>
甲小姐:你們會看Transformer、Scaling Law等技術范式的趨勢變化嗎?
譚待:肯定要看,但這個事情不需要火山來講。
甲小姐:你們會為未來可能誕生的新架構做一些準備嗎?
譚待:這不是火山準備的,是豆包模型團隊準備的。
甲小姐:那火山怎么思考?
譚待:回到我之前說的,看模型能力有沒有達到上限。我們認為現在在模型架構不變的情況下,假設算力和數據各提升10倍,還會有很大的機會。
甲小姐:某種意義上你就是在跟某個大勢中的最確定性的東西為伍,不確定的事情交給別人干?
譚待:肯定要干自己最擅長的事情,我肯定不是模型專家,那我怎么去做這個判斷?你只能找到有判斷力的人合作。比如說云怎么做好,或者MaaS怎么做好,我們都很有判斷力,就把這個事做好。
甲小姐:有豆包這樣的兄弟團隊,火山還是挺幸福的?
譚待:術業有專攻嘛。
甲小姐:在你們最有判斷力的云計算領域本身,你們看到的最新需要解決的問題是什么?
譚待:規模優勢、無服務器化、數據驅動,和大模型能力的提升。
首先,云計算最重要的是充分發揮規模優勢,以降低成本。云計算和應用要把彈性用好,比如負載共享,為了實現這一點,我們需要解決異構算力調度、容器化和虛擬機融合等問題。
同時,云原生不只是容器化,更多還在無服務器化(Serverless)。當更多人在上層使用,無服務器化就能幫助系統把底層的彈性用好。我們需要把計算、數倉、數據湖、推理等步驟都按照無服務器化的標準改造。
以及,云上積累了那么多數據,怎么通過數據驅動業務更好發展也很關鍵?;诖?,我們提出了數據飛輪,重點聚焦“數據消費”,用AB測試、敏捷BI、數倉等工具降低延遲、變革數據驅動的范式。
最后,為了讓AI大模型能更好地被使用,我們需要在MaaS層面做到最好模型、最低成本和最易落地。
甲小姐:有一種聲音說,大模型廠商本質上還是云計算巨頭的代理人,像阿里把幾乎所有大模型獨角獸都投了。你怎么看這個觀點?
譚待:沒有代理人,你也可以換個說法,說云廠商替大模型廠商打工。
AI是非常重要的事情,未來最好的云廠商會擁有最強的AI模型。云廠商不管你是自己擁有AI模型還是有一個伙伴,至少你們關系得非常親密,AI肯定不是代理人角色。
甲小姐:用戶-產品-模型-云計算-投資,這五個維度上,可能小公司在做小閉環,大公司在做大閉環。為什么要做這么長鏈路的閉環?
譚待:大家做云計算不是因為AI,而是本來就做云計算。就像火山,也不是因為有了AI我們才開始做的。為什么大的公司要做云計算呢?除了賽道很好,還有就是如果大的科技公司保持科技領先,需要把企業服務和云計算做好。云計算是技術的集大成者,你需要在開放市場鍛煉技術,才能保持技術領先。很典型的例子是Google,十幾年前Google的技術是最領先的,但現在做云、做AI做得最好的都不是Google。
同時,因為大模型這個事情需要進行算力和規模的消耗,云廠商做這個事情是有優勢的。
甲小姐:你覺得目前大模型企業的商業化是個問題嗎?
譚待:對所有公司來說,最重要的問題就是把模型做好。創業公司可能是想通過商業化更好地融資,長期來看可能商業化不是一個難題,關鍵是能不能活到那個時候。太陽肯定是會升起的,但能不能看到明天的太陽是問題。
甲小姐:但你說的需求還在數字化轉型范疇,它是數字化轉型的延伸,而不是開辟一個全新的場景?
譚待:數字化的市場已經足夠大,是可以用GDP占比來算的。
甲小姐:即便沒有這波AI原生超級產品,B端的供給側改革、降本增效這件事情已經足夠大了?
譚待:云本身就是足夠大的,即使沒有AI,云計算本身就足夠大了,只是AI會讓云更大。
甲小姐:云廠商負責人好像都在找那些突然竄起來的流量,或者新的增長點,但在你看來這是一件不言自明的事情?
譚待:實踐中你肯定是要不斷去找的,我們每周也會聊收入怎么提升。關鍵在于你要有規模,這個也是火山的優勢,因為它能把抖音的規模用起來。
甲小姐:這個規模指的是?
譚待:服務器規模。只有規模夠大,彈性和資源調度才能發揮出來。規模大,成本低,客戶多,才有競爭力。我們現在的服務器規模在中國優勢很大,這樣我就很放心,慢慢追就好了。我們戰略比較穩定也是這個原因,我不用做短期投資換收入、資源互換的事情,只要發揮資源優勢,在產品、技術上發揮到極致,重要的客戶好好服務即可。
甲小姐:火山引擎的服務器規模在全國優勢很大是因為字節做了很多產品嗎?
譚待:是因為抖音很大。但核心都一樣,比如為什么火山在AI方面多做了很多事情,也是因為我體量夠大,這樣做一些投資就沒什么顧忌。比如,做預算時我會跟大家講不用擔心,不用怕賣不出去,過一年賣不出去的話內部也能用起來,哪怕是虧一點錢呢。
甲小姐:所以說你很幸福。
譚待:是的,但是你一開始就要認識到這一點。我們前幾年也很痛苦,如果你沒有把這個事兒想清楚,你會想“我是不是應該短期趕快做點收入”?當然不是說收入不重要,收入肯定是核心目標,收入不大產品肯定做不好,規模優勢也發揮不出來。但是關鍵在于,收入是怎么來的?如果是通過把規模優勢發揮到極致帶來的,那沒問題;如果是靠短期補貼帶來的,那會沒有底氣。到時候有的公司可能就要轉型,不一定是解散,可能轉型做私有云好了。
甲小姐:怎么判斷你的收入來源是否健康?
譚待:一個標準——你的收入確實是你長期的競爭力所帶來的。