界面新聞記者 | 伍洋宇
界面新聞編輯 | 劉方遠
李開復最近很忙,不斷飛往全國各地,頻繁往返于深港之間。用他自己的話來講:忙著見許多“超大客戶”。
他在61歲這年創辦的AI大模型公司零一萬物,前不久經歷了重大的戰略調整,成為“AI六小虎”中第一家宣布放棄超大參數模型預訓練的公司,在國內市場聚焦輕量化模型落地,全力轉向ToB(企業端)應用。
DeepSeek在春節期間的異軍突起也加速了零一萬物的轉型。“當你花大筆的錢(去訓超大模型)得不到回報,跟DeepSeek也不能對標,為什么要做這件事情?這是一個好的CEO必須要問自己的問題。”李開復說。
DeepSeek的爆火為大模型ToB業務完成了一次透徹的市場教育。他看到的機會是,企業主意識到或許是時候搭上大模型的快車,但對中途的路徑和最終的目的地依然認知模糊。
這樣的背景之下,零一萬物發布了一款名為“萬智”的企業大模型一站式平臺,當前最大賣點是可提供企業級DeepSeek部署定制解決方案。它被寄予填補企業與DeepSeek之間技術溝壑的厚望。
不過,這些看起來務實的做法,也在行業中引來了諸多質疑。有人批評李開復輕易就退出了AGI競爭。
對于這些議論,李開復以平靜心態來看待。“我覺得它代表了大家看懂我們做的戰略轉型,我沒有任何的意見。”他明確表態不會過度反思曾經的錯誤決策,但如果說大模型創業經歷留下了什么教訓,那就是應該更早看清楚開源的必然性。
盡管暫時放棄了超大參數基礎模型競爭,但李開復依然在密切觀察這一領域。他預言,中國AI基座大模型最后會大概率會剩三家:DeepSeek,阿里通義,字節跳動。在中美大模型競賽話題上,他認為以OpenAI o1和DeepSeek-R1為基準,中美差距或已收縮至3個月。
另外,他試圖重申對于AGI的定義,不是“什么事情都能夠超過所有人類”,而是“在人做的90%事情上,比90%的人做得要好”。以這個定義為標準,我們距離AGI或許還有5年。
在人生最后一次創業項目上,雖然作出了務實抉擇,但李開復堅稱這并不等同于完全放棄了AGI。在他看來,打造一個商業底座,用利潤拾起AGI的夢想,這也是可能的。
“我們最終還是想成為一個偉大的AI 2.0公司,讓大模型賦能千行百業。”李開復說。
以下為界面新聞對李開復的專訪實錄,略作編輯:
“過度依賴閉源模型才會焦慮”
界面新聞:你最近好像一直在出差,就連“萬智”發布會當天都在趕飛機,為什么?
李開復:我最近行程安排得很滿,也見了很多客戶。比如說我今天去深圳就是見了一個超大客戶,我在香港也見了很多超大客戶。
相比重點參與招投標,不惜虧本拿單的To B打法,我們的差別就是會尋找那些頭部的大B客戶,利用過去積累的大模型研發中臺能力來深度參與,以比較輕但是精準的方式進行企業定制,當然對這些客戶的收費也會更高。有的公司一年上百個客戶,每個拿小幾百萬,我們的訴求是少于10個主要客戶,每個都是千萬級別收入。
我們的發展會主要看幾個指標:第一是這個公司是否希望把AI放進核心業務里。第二是找那些數字化轉型已經做得比較好的公司。第三是希望公司從CEO開始積極擁抱AI,這樣雙方合作起來才會暢通,而且老板拍板的經費會更多。
還有一個特點是,我畢竟年紀、經驗、人脈都擺在這里,中國的大老板們,我能敲開門的機會會比其他友商多得多。
界面新聞:所以你并不避諱要自己親自跑出來給公司做銷售?
李開復:我們要做To B的公司,公司最大的銷售一定是CEO。這一點可能很多公司老板不愿意做,但這是我愿意做的。
我們公司今天銷售團隊還非常小,但不到10人的團隊能拿到這么多訂單,就是因為我們從燈塔客戶開始打,然后我親自出馬。
我們的轉換率可能很低,比如我見10個CEO朋友有1個單子就已經很好了。但是比起AI 1.0時代相互競標、做一單賠一單的模式,目前我們的商業模式更健康,更可持續。一次不成沒關系,合適的客戶在那里,我們只是需要時間來挖掘。
界面新聞:發布“萬智”這個產品對零一萬物意味著什么?算是找到了階段性的出路嗎?
李開復:今天跟過去有一個很大的差別是,企業客戶都覺醒了。因為DeepSeek的出現教育了市場,中國經歷了自己的“DeepSeek Moment”。春節之前DeepSeek發布,接著就是春節期間的傳播,老板們回來以后都說我們要對接DeepSeek,然后IT部門開始部署起來。
這些老板們可能首先想到的是,如果我能把公司所有財務信息、競爭對手信息輸入進去,我能不能問它今年的戰略方向?我的競爭對手最大的軟肋在什么地方?以及公司在哪里有浪費?法律合同是否有違規風險?
這可能是第一步,DeepSeek也許可以做到一部分,但是如果他們只把模型接入,是不能完全解決這些問題的。很多企業CEO出于數據安全等原因,不希望直接接入API,所以需要本地部署。另外在應用實踐方面,很多公司需要DeepResearch等功能,也需要用RAG技術鏈接企業數據庫。此外還有企業希望能夠在基座模型基礎上開發應用、打造企業專屬智能體。甚至還有很多企業需要基于DeepSeek模型進行模型微調。
這些都是萬智的機會。我們是提供了一個“大模型研發中臺”,讓客戶可以接入包括DeepSeek在內的大模型,然后基于自身需求進行微調和搭建應用。當然我們的Yi模型還在里面,也包括阿里千問的模型,但是大部分用戶要的是DeepSeek。
界面新聞:外界現在有質疑聲說,你們的產品會過于依賴其他開源模型。你們內部會有焦慮嗎?
李開復:DeepSeek事件對全世界最大的一個撼動就是,開源模型贏了。因為哪怕是強如Open AI的公司,花了70億美元一年的經費,也只能比DeepSeek略好一點點,而且DeepSeek還是免費的。我覺得“花70億美元比別人好一點點”是一個不可持續的商業模式。
未來越來越多的基座模型會開源。我們也看到有一些大廠開始有更多開源的動作,美國可能也是這樣。下一個階段的競爭,就是誰能做最好的開源模型。
所以,我覺得全世界每一家大模型公司,現在只會焦慮自己是否過度依賴閉源模型。特別是資金實力不夠雄厚的公司,只依賴自己的能力,能不能打敗全世界的開源社區?這個才是焦慮。相反,現在主動擁抱DeepSeek等開源模型,盡早做出差異化的打法,可以每天睡得很好,很安穩。
“投資人對轉型非常認可”
界面新聞:零一萬物算是六小虎里比較早退出超大基座大模型競爭的公司,但現在確實還有很多公司還執著于預訓練這件事情,你想對他們說什么?
李開復:每家公司有自己運營的一些考量跟規則,在不了解每家公司基本面狀況下我不會認為我有資格去給他們做建議。我覺得在大模型領域能夠膽敢去做的都是勇敢的創業者,所以我會祝他們好運。
但就我們自己來說,過去這半年,因為不做超大模型訓練,我們的GPU成本大大下降,讓我們有預算在商業部門里衡量決策,在什么地方增加人數、有多快能得到相應回報。就算要花錢,也可以在一段時間后看到這個錢產生回報,而不是預訓練一個可能是血本無歸的巨大模型。
就算你只花3000萬美元訓練了一個世界前十的模型,它的生命周期可能就是3-6個月。那就代表你每個月要有500萬到1000萬美元凈利潤才能夠打平,這個賬明顯是算不過來的。
所以短期來說,當你花大筆的錢得不到回報,跟DeepSeek也不能有效對標,為什么要做這件事情?這是一個負責任的CEO必須要問自己的問題。
界面新聞:現在讓你重新定位零一萬物,你會把它叫作一家什么公司?
李開復:最懂大模型的應用公司。
界面新聞:你們在轉型之后再去融資有更被認可嗎?
李開復:投資人對我們的轉型是非常認可的。另外我之前在Bloomberg的采訪上也說了,今天的VC對投資一個燒超大模型的創業型公司是零興趣。
當然如果把DeepSeek算在里面,它是例外。它現在要一個非常高的估值也是可以要得到的。
界面新聞:我能不能理解為零一萬物目前所做的一切努力或者轉型,最終還是為了給投資人交代,或者說要服務于上市?
李開復:當然不是,我們最終還是想成為一個偉大的軟件公司。
比如說當年誰是做出最早的微型機操作系統的,是一個今天可能都沒有聽過的公司叫做Digital Research。微軟是參考了別人的操作系統,優化創新后搭建成了一個真正的用戶可用的操作系統。以及當年誰是做database(數據庫)最牛的公司,肯定是IBM,但是誰做了一套可用的database,那就是Oracle、SAP還有SalesForce。
今天沒有誰會去詬病Oracle、SAP、SalesForce沒有做出最偉大的database research(數據庫研究),也沒有人會詬病微軟當年沒有最強的操作系統技術,也沒有人會說當年的它們做事情就是為了上市。它們之所以能成功,就是因為它們的愿景是做一個偉大的軟件公司。
我也不是說就永遠放棄了AGI的夢想,但是有了一個商業底座,成為一個很成功的軟件公司,利用利潤再拾起AGI的夢想,這也是可能的。
界面新聞:你有預見到零一萬物會發展成現在這個樣子嗎?復盤過去會不會反思有哪些決策可以做得更好?
李開復:我覺得當時應該更擁抱開源的。現在我們是從應用層擁抱開源,當時可能從模型層擁抱開源,會是一個更好的抉擇。
當時我們看到有三種公司,一種是堅決閉源的,第二種是開源次好的模型,閉源最好的模型,第三種是徹底開源的。我們屬于第二種,當時如果做得更完整的話會更好。
界面新聞:更擁抱開源的核心意義是什么?
李開復:開源能夠創造生態,然后得到認可。但是我也不會去過度揣測,如果當時做了,我們是不是有機會成為DeepSeek。但是如果說我學到了什么教訓的話,那就是應該更看清楚開源的必然性。
中國基礎大模型看DeepSeek,阿里,字節三家
界面新聞:你在年初看到DeepSeek全球爆火的直觀感受是什么?會復盤為什么零一無法做到嗎?因為你對技術的判斷都沒有錯,從day 1開始就重視AI infra,很早認為低價的推理極其重要。
李開復:DeepSeek做了若干件很正確的事情,這是所有六小虎值得學習的地方。
一個是它很重視Infra,我們做得也不錯,但還是差它一個身位,這個必須承認。第二是它在模型訓練上做得很好,這個大家本質上倒沒有差很多。第三它Reasoning(推理)做得很好。從理論基礎上來說,DeepSeek-R1 Zero應該是最驚艷的一個科研貢獻,它可能在歷史上都會留名的。最后一點是他們執著選擇開源。
前兩個事情大家還可以辯論一下,你不錯,我也不錯,但R1-Zero是一騎絕塵的事情,我們是心服口服的。
界面新聞:你對梁文鋒這個人了解嗎?你會怎么評價他?
李開復:我跟他認識,但不算很熟,我只能看他的行為來點評。我覺得他是一個非常值得尊重的、很純粹熱愛技術的人。他完全有商業化的能力,但沒有為商業化和資本彎腰,這表示他是一個有理想的人。他選擇專注技術,有自信自己能把模型做得非常的強,愿意完全投入。我覺得這是讓我很佩服的事情。
界面新聞:在你人生中最后一次創業里,遇到了梁文鋒這樣的對手,有什么感受?
李開復:我是很驚喜,同時作為中國人也很自豪。
我之前有說過,如ChatGPT不對中國開放,而中國人沒有自己的ChatGPT,會是新質生產力發展的一個阻礙。最后無論是誰做出來,只要做出來,大家最擔心的障礙就解決了。
現在回頭看,也只有梁文鋒這樣一個人,既有理想,又有做量化所積累的AI Infrastructure團隊和技術背景,再加上他敢用年輕人的抉擇,每一點都讓我很佩服。
界面新聞:你認為中國AI大模型會收攏到三家,DeepSeek,阿里通義,字節跳動,是基于哪些維度判斷的?
李開復:萬億參數以上的超大模型還是需要有人來做的,只是這樣的公司,它要有非常強的資金能力和工程能力,能不要過度的燒錢,然后融到足夠的錢,我認為DeepSeek是可以做到的。
另一個可能的路徑是,要有非常大的商業體積和用戶量,才能合理去燒超大模型,這是阿里和字節。它們有非常大的用戶量,燒超大模型可能花了很多錢,但是分攤到每個用戶身上就還好。所以淘寶和抖音的用戶,如果都能從超大模型得到價值,并為公司產生價值,加起來就值得。
阿里還有一點值得注意的是它們的模型現在做得真的很好,不遜色于DeepSeek。字節跳動今天在學術界、模型界以及開源界,并沒有像DeepSeek跟阿里那么知名。但是我們可以看到他們有資金也有決心,也能吸引到好的人才,有足夠多的用戶和場景讓這個投入在商業上得到回報。字節應該很快就可以做出很好的模型。
界面新聞:能問一下騰訊為什么被摘出去了嗎?
李開復:騰訊是一家應用驅動的科技公司,產品方面護城河很深,有世界級的競爭力,但在基座模型投入上跟前面三家比投入還不是一個量級。我覺得騰訊完全可以是第四個。但是今天從模型的角度,開源模型也好,模型表現也好,國內的第一梯隊并沒有見到騰訊的身影。它目前選擇是微信、元寶等應用全面擁抱DeepSeek,與自研模型共存,這也是一個非常明智的做法。
中美大模型差距縮短至三個月:“他們急了,睡不著覺了”
界面新聞:在你了解中,美國有哪些公司真正意義上把DeepSeek直接視為了競爭對手?這種正視體現在什么地方?
李開復:應該每一家都會吧(笑)。最明顯的肯定是Meta,因為它在開源的領先地位一下就被震撼了。而且我剛剛講的那幾個優勢,Meta除了開源之外,沒一個能夠跟DeepSeek競爭的,所以這是一個Meta內部需要嚴重反思的問題。
OpenAI和Anthropic,你看他們的言行,就可以知道他們的態度。他們開始跟美國政府抱怨,想要用政治手段來對待DeepSeek或者是對待中國,讓中國更買不到芯片,讓DeepSeek被美國制裁等等,而且很多話都沒有事實根據。
所以讓我們看到的就是,他們急了,他們睡不著覺了。
因為他們之前的價值主張已經坍塌了,就是你每年多給我幾倍的資金和資源,我就會第一個燒出AGI,當我有了AGI,別人就做不出來了。這個價值主張多方面地坍塌了,第一,好像不是只有你做得出來;第二,人家好像不用這么多錢就做出來了;第三,人家還是開源免費的。
當然這些公司的人還是很牛的,技術也是領先的,但是作為每年燒這么多錢的公司,整個公司能夠運轉就是因為能講這個故事,讓它能繼續循環推動,但現在良性循環變成惡性循環。
界面新聞:美國對中國的算力限制真的能卡住中國大模型的技術發展嗎?
李開復:未來這一兩年中國已有的英偉達芯片還是足夠的,再加上中國Infra的優勢,DeepSeek訓練一個同樣效果的模型,可能只需要Open AI十分之一的成本,這也是一種Scaling Law。
而且不是說堆更多GPU,而是說更有效去做預訓練,所以我覺得未來更有效的預訓練加上已有的GPU,應該還是可以再做一定提升,不會說掉隊。
再往下走的話,那就要靠國產芯片了。再給個一兩年時間,國產芯片應該也能夠去使用,所以我覺得不會因為芯片問題有一個不可克服的挑戰。
當然挑戰還是有的,因為你用國產芯片就沒有CUDA,那就得自己更辛苦,用更多的時間來去換取結果。但這個事也是可以做的,因為DeepSeek前面一次發表也可以看到它很多底層工作都是自己做的,所以中國工程師的勤奮刻苦可以克服這些問題。
把這幾件事情對接起來,我是比較樂觀的。
界面新聞:我們現在的確可以說中美之間AI大模型差距變小了對嗎?它可能縮短到了幾個月了?
李開復:最好的衡量方式就是美國做出一個嶄新的技術,比如說o1,然后中國在多久之后做出了一個跟它同樣好的技術,而且還有技術亮點。
之前我們落后了6個月也好,9個月也好,但現在你從o1的發布日到R1的發布日,可以算一下應該差不多三個月,而且這次不是一個復現或蒸餾,而是有自己的新技術亮點,有值得尊重的論文的發表。
從這幾點來說的話,至少三個月是一個合理的距離,而且在有些方面做得比Open AI還要好。
比如說在成本和Infra方面,你其實可以倒過來說,Open AI什么時候才能夠在Infra方面趕上DeepSeek?我很確定三個月是做不到的。
界面新聞:在GPT-4.5之后,我們對預訓練階段的Scaling Law還能期待些什么?
李開復:預訓練出來的超大模型本身,即便它還有進步,速度也會放緩,而且它使用起來會很貴很慢。GPT-4.5比DeepSeek-V3要貴差不多500倍,絕大多數應用是用不起它的。
當然我覺得超大模型在一些巨大的科學或者金融決策上還是可以利用的,但這不是它主要的使用方法,因為太貴了。
但新的曙光已經出現了。一方面,Scaling Law 正從預訓練階段轉向推理階段,也就是慢思考模式。目前看來,慢思考模式下,模型性能的成長速度非常快,而且還有很大的增長空間。
另一方面,我認為超大模型的一個重要價值在于作為“教師模型”,可以去教小的模型,說直白點用它做蒸餾、標注,還有合成數據的產生。以后較小的模型可能訓練的語料也是超大模型合成的,這樣可以更有效去壓縮它一定的訓練量。
AI借助慢思考獲得了反思的能力,能夠自我迭代、自我進步,未來可能不再單單依靠人來發明新算法、發明模型架構,而是“AI教AI”,AI會進入到自我演進范式。
大家會驚喜地發現,整體來看,模型性能的提升其實在加速,而不是在放緩。從GPT-2到 GPT-3、從GPT-3到GPT-4.5,每一次升級都花了大約兩年的時間。而無論是從OpenAI o1到o3,還是從DeepSeek-R1到可能很快會發布的R2,模型迭代的速度縮短到了三個月左右。
界面新聞:那在現有情況下,你認為我們還要多久能實現AGI?
李開復:我覺得AGI的原始定義是模糊的,甚至可能是不可及的。“什么事情都能夠超過所有人類”,首先難度就很高,衡量標準也不清晰,而且會給人一種恐怖感,就是那我們人類以后干什么?
AGI更合理的定義可能是,在人做的90%事情上,比90%的人做得要好。按照這個定義,我覺得5年之內肯定會實現的。
界面新聞:你會怎么看待Manus的走紅?進入AI應用時代,做得更早還有先發優勢嗎?
李開復:我不談某一個應用。但我可以說,我之前也說過2025年是應用爆發年,就是因為底層模型能力快速提升,而且推理成本快速下降,各行各業每個應用都會被重做一次,還有很多過去不可能的應用,讓人眼睛一亮的應用,都會在2025年開始產生。
界面新聞:你們有在憋這種類似于可以刷屏產品的大招嗎?
李開復:我肯定是有興趣,因為當我看到這種商機卻什么都不做,那肯定是不行的。但你要說憋了什么大招,到底多大,我現在無可奉告。
界面新聞:最后一個問題,面對這么卷的行業,你個人堅持下去的動力是什么?
李開復:我覺得我這一生就在等AI時代的來臨,它來臨了,就是給我最大的動力。實際上做什么,我覺得每一個人就是量力而為,去自己能夠產生最大價值的地方,我覺得是一個務實的做法。