簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

用DeepSeek創收的“小公司”,痛并快樂著

掃一掃下載界面新聞APP

用DeepSeek創收的“小公司”,痛并快樂著

無論是各大模型廠商還是AI產業鏈上下游的公司,都在興奮地等待通往未來AI世界的關鍵路徑。

圖片來源:界面圖庫

文 | 《中國企業家》 孔月昕

編輯 | 馬吉英

AI Infra公司在宣布接入DeepSeek-R1后,會有很多中小企業前來聯系,希望獲得部署了R1模型的產品,清程極智就遇到了類似情形。

“你們的DeepSeek是不是‘滿血版’?”清程極智CEO湯雄超曾被客戶這么問。

注:DeepSeek滿血版即DeepSeek-R1模型的頂級版本,模型參數達671B(6710億),是普通版(14B/32B)的20倍以上,滿血版支持本地/API部署及復雜科研計算,能力上限更高,且對硬件要求也更高。

收到太多此類問詢后,清程極智團隊決定用工程解決這個問題——在官網上線一個“滿血版”鑒別小程序,并精心挑選了幾道比較有區分度的題目,用戶可以用這些題目去提問,如果系統回答得對,基本上就是“滿血版”;如果回答不出來,可能就不是“滿血版”。

該小程序上線后,其訪問量超出了清程極智的預期。

實際上,清程極智的經歷只是近期AI行業的一個縮影?!罢麄€AI行業這一個多月應該都過得很充實。”有業內人士表示。DeepSeek的火爆,讓整個AI賽道的從業人員處于一種“痛并快樂著”的狀態。

一方面,DeepSeek的出現激發了普通用戶使用AI工具的意識和需求,推動了AI的普及。DeepSeek也成為有史以來增速最快的AI應用,據AI產品榜統計,DeepSeek 2月份活躍用戶1.57億,已接近ChatGPT 7.49億的20%。過多用戶的涌入,也讓DeepSeek對話機器人常常陷入“服務器繁忙”的狀態。

另一方面,DeepSeek的快速迭代和開源,讓本來就“卷”的AI行業進入了新一輪的“軍備競賽”,從模型層至應用層的很多公司,在今年春節期間幾乎沒有休息。眾多企業宣布接入DeepSeek,既有云服務提供商、芯片制造商等B端公司,也有各類C端應用公司。據正和島統計,已有超200家企業完成DeepSeek技術接口的集成部署。

接入的企業也迎來了一波“潑天流量”——騰訊元寶APP在接入DeepSeek之后,下載量迅速攀升,并在3月3日登頂中國區蘋果應用商店免費APP下載排行榜TOP1;作為AI基礎設施公司,硅基流動在全網最快接入DeepSeek-R1,訪問量激增40倍,2月訪問量高達1719萬人次。

DeepSeek-R1的出現,也進一步提高了各方對AIGC應用加速發展的期待。當3月6日Monica.im發布AI智能體產品Manus時,再次引發了一場“邀請碼搶購”狂潮。

無論是各大模型廠商還是AI產業鏈上下游的公司,都在興奮地等待通往未來AI世界的關鍵路徑。

01 如何接入DeepSeek?

早在2024年DeepSeek-V2模型發布時,業內已經關注到這家公司及旗下的開源模型。

美圖設計室技術負責人郭晨暉表示,為了在美圖的AI應用場景中給用戶更好的效果體驗,在自研的基礎上,美圖也一直對國內外優秀的大模型保持關注。DeepSeek-V2發布時,美圖的外采AI團隊就關注到了該模型,與DeepSeek團隊接觸嘗試合作。不過為了尋求穩定性,美圖當時主要通過第三方AI Infra服務商調用DeepSeek模型API。2024年9月,美圖設計室接入了V2模型,輔助文案擴寫,V3、R1模型發布后,他們也陸續進行了更新?!拔覀儺a品和業務團隊看到一些適合結合的模型,就會去做效果評估,合適的可能就會引入到我們自己的應用場景里?!惫繒熣f。

郭晨暉 來源:受訪者

DeepSeek官方提供了兩個接入方法,一是模型跑起來后,通過一些編程方式去調用它的API接口;二是用戶在手機上裝一個APP或打開官網的聊天窗口,直接跟它對話,聊天窗口的背后就在調用API。

不過,由于目前DeepSeek的流量過高,又存在服務器、人手不足等情況,導致DeepSeek自己的API會出現超時等問題。郭晨暉表示,美圖旗下產品有著大體量的用戶基數,一些功能推廣開來后流量可能會激增數十倍、上百倍,這種情況下,公有云的服務保障能力相對更強。

不僅如此,DeepSeek的模型比較大,尤其是“滿血版”模型對硬件有一定要求;基于性價比層面的考慮,美圖的業務場景存在很顯著的(使用)高峰、低峰效應,云廠商可以抹平各家調用API高低峰期的差異?!叭绻覀冏约哼M行部署,低峰期資源利用率可能比較低,會有比較大的資源浪費。”郭晨暉說。

因此,美圖目前接入DeepSeek-R1模型的方式,主要是調用云廠商的API,在此基礎上進行一定的私有化部署。

與美圖類似,部署端側芯片的此芯科技,也一直對新發布的各種大模型保持關注,尤其是比較適合在端側進行本地化部署的模型。此芯科技生態戰略總經理周杰表示,對于一些開源的大模型,尤其是SOTA模型(State of the Art,在某一領域或任務中表現最佳的模型),他們會第一時間投入資源進行相應的異構適配。因此在DeepSeek去年發布V2以及今年發布R1后,此芯科技都第一時間嘗試適配這些模型。

在周杰看來,DeepSeek-V2模型的主要創新點有兩個,一是通過MLA(多頭潛在注意力)架構有效地降低了KV緩存(Transformer模型在自回歸解碼過程中使用的一種優化技術)的開銷,因為大語言模型對于內存帶寬和容量的要求很高,一旦能夠降低KV緩存,可以給算力平臺帶來很大幫助;二是DeepSeek發布的MoE(混合專家)模型,對傳統MoE架構進行了優化改造,這個架構可以讓一個(參數)更大的模型在資源有限的情況下被使用。

當時,此芯科技很快適配了V2模型的light版本,即16B大小的模型?!半m然16B參數看起來也很大,但實際運行時,它只會激活2.4B參數。我們覺得這樣的模型非常適合在端側運行,此芯科技的P1芯片也可以給2.4B參數規模的模型提供比較好的支持?!敝芙芨嬖V《中國企業家》。

周杰 來源:受訪者

對于此芯科技如何“接入”DeepSeek,周杰解釋道:“用戶現在使用DeepSeek等應用,很多需要調用云端的算力,相當于DeepSeek自己的數據中心或云廠商,提供了一些API給終端側應用調用,用戶使用DeepSeek APP時,就可以調用云端的AI能力。但是部分端側場景可能對數據隱私等方面有很高的要求,這種情況下就需要在本地進行運算,在端側部署后,用戶可以在斷網的情況下運行DeepSeek等模型?!?/p>

從算力和系統層面滿足了運行一個大語言模型的基本要求后,此芯科技就可以結合客戶項目的實際需求,跟DeepSeek等模型廠商進行商業化合作,對模型進行微調優化,把具體項目落地。

V2推出后,清程極智內部也嘗試接入該模型,但當時的市場需求較少,他們就沒有推廣使用。今年R1出來后,他們覺得這是一個非常好的機會,決定接入DeepSeek并大規模向客戶推廣。

清程極智是做系統軟件的,對外基于系統軟件提供推理服務,因此不是像部分應用公司那樣直接接入DeepSeek的API,而是為客戶提供一套專屬的DeepSeek的API用于應用服務。“我們接入的方式是把DeepSeek的開源模型下載下來,在我們的算力系統上用系統軟件把服務部署起來?!睖鄢f。

通俗來講,R1模型是一個幾百G大小的文件,但下載后無法直接使用?!八皇且粋€文件,不是一個可用的服務,我們要做的是把這個模型運行起來,讓它去對外提供服務的接口。通過API的服務接口,用戶就可以跟模型進行對話了?!睖鄢忉尩?。

基于前期技術積累,清程極智在把模型文件下載下來后,一天內就迭代出了第一個版本,隨后針對R1模型結構進行了優化,正式“滿血版”官宣上線只用了一周。

在湯雄超看來,技術環節的工作都比較順利,接入DeepSeek后,更多的挑戰來自于商務側或市場側。具體來說,DeepSeek的流量給公司帶來了非常多來咨詢的客戶,但每個客戶的需求都不太一樣。“包括算力平臺、芯片型號、服務器規格等都不一樣,我們需要針對不同的算力等基礎,做針對性的調優?!睖鄢f。

02 API成本降低推動大模型普及

在2024年5月發布V2模型后,因其極致性價比,DeepSeek獲得“AI界拼多多”的稱號,并帶動國內大廠打起了大模型價格戰。

價格戰降低了API費用。以美圖“AI商品圖”為例,在郭晨暉看來,一方面,美圖在AI圖像處理上擁有強大技術優勢,而DeepSeek模型的接入帶來了用戶體驗和轉化的正向反饋,且大語言模型API的調用成本占比很低,這與美圖的業務場景形成了很好的優勢互補,因此美圖也會加大對大語言模型應用的關注。

2月9日,DeepSeek停止了V3模型為期45天的優惠價格體驗期,API恢復原價,每百萬輸入tokens 0.5元(緩存命中)/2元(緩存未命中),每百萬輸出tokens 8元。R1的百萬tokens輸入價格(緩存命中)為1元,百萬tokens輸入價格(緩存未命中)為4元,輸出價格為16元。

但OpenAI官網顯示,GPT-4o的2.5美元/百萬輸入tokens,10美元/百萬輸出tokens;最新發布的GPT-4.5的百萬輸入/輸出tokens更是高達75美元/150美元,僅較GPT-4o就上漲了15~30倍。

在郭晨暉看來,一方面DeepSeek模型調用費用在美圖AI研投的整體成本占比不高;另一方面,DeepSeek恢復原價后依然處于比較便宜的價格區間,且美圖接入DeepSeek后,在用戶轉化及反饋上是正向的,因此他們會加大在大語言模型方面的投入。

周杰也認為,DeepSeek的API價格比OpenAI低了很多倍,對于企業和用戶而言,買token的費用大大降低。在端側模型層面,現在一個3B的模型可能就能做到以前7B以上規模的模型效果,內存等成本也相對降低了。

“這是個軟硬件協同的過程。同樣的硬件條件下,現在相當于能實現以前更大參數規模的模型效果,或者要達到同樣的模型效果,對硬件的要求變低了?!敝芙苷f。

3月初,持續五天的“DeepSeek開源周”結束后,DeepSeek團隊首次對外公布了模型的優化技術細節、成本利潤率等關鍵信息。按DeepSeek測算,其成本利潤率理論上能達到545%。

大模型成本的快速降低以及能力的提升,也帶來了to B和to C領域用戶的高速增長。湯雄超透露,現在有很多的中小企業會主動聯系到他們,希望獲得基于R1模型的產品。

03 AI應用將加速爆發

百度創始人、董事長兼CEO李彥宏在《緊抓AI智能體爆發元年機遇,推動新質生產力加快發展》一文中寫道,大模型的推理成本,每12個月就降低90%以上,遠超“摩爾定律”。隨著大模型技術的迭代和成本的直線下降,人工智能應用將大爆發。

目前,AI市場處于高速增長階段,湯雄超認為,DeepSeek的理論利潤率高達545%,對于整個行業的意義和影響非常積極,給市場科普了算力系統軟件的重要性。

湯雄超 來源:受訪者

“過去大家并不是非常重視軟件的能力,DeepSeek讓大家認識到,花錢買軟件不是浪費錢,而是為了更好地省錢?!睖鄢硎荆谑苓^教育的市場環境下,核心系統軟件的優勢能被更大地發揮出來;短期來看,DeepSeek的開源也能讓各方降低產品交付的商業成本。

隨著越來越多企業接入DeepSeek,在其開源生態上做“建設”反饋,DeepSeek的發展進程也在加速。

郭晨暉認為,這也是DeepSeek的開源生態最大的優勢——接入的企業在各自應用場景上打造差異化能力產品的同時,應用場景也能推動DeepSeek等基座大模型的發展。“各家公司在開源生態的差異化部署不僅能加速AI的創新,大模型的低成本化也有助于大模型在垂直細分領域的可用性,給AI的應用帶來更大的想象空間。”郭晨暉說。

在周杰看來,除了云端應用爆發外,在DeepSeek的推動下,端側AI應用也會在2025年實現井噴式發展。

“未來的AI其實是一個混合式的人工智能,不是所有的東西都在云端跑,也不是所有東西都在端側跑,因為各有各的優勢。如端側只能跑相對小規模參數的模型,但對于某些任務來說,對精度有更高要求,還是要用云端算力;而為了保證數據安全和隱私,就需要使用端側能力實現以前更大參數規模的模型效果,這就形成一個混合式的部署方案?!敝芙苷f,此芯科技也在跟云廠商進行這方面的應用探索。

“AI應用元年”已經不是一個新概念,但截至目前,AI行業從業者以及投資人,還在尋找更適合AI應用的落地場景。在周杰看來,這只是時間問題,“一個新生態的發展肯定需要一定時間,所有的東西不會突然完善,需要軟件和硬件不斷迭代。目前來看,芯片側、模型側等已經為AI的大規模應用打下了堅實的基礎,后面需要更多的開發者來開發AI應用,滿足實際的場景需求。”

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

用DeepSeek創收的“小公司”,痛并快樂著

無論是各大模型廠商還是AI產業鏈上下游的公司,都在興奮地等待通往未來AI世界的關鍵路徑。

圖片來源:界面圖庫

文 | 《中國企業家》 孔月昕

編輯 | 馬吉英

AI Infra公司在宣布接入DeepSeek-R1后,會有很多中小企業前來聯系,希望獲得部署了R1模型的產品,清程極智就遇到了類似情形。

“你們的DeepSeek是不是‘滿血版’?”清程極智CEO湯雄超曾被客戶這么問。

注:DeepSeek滿血版即DeepSeek-R1模型的頂級版本,模型參數達671B(6710億),是普通版(14B/32B)的20倍以上,滿血版支持本地/API部署及復雜科研計算,能力上限更高,且對硬件要求也更高。

收到太多此類問詢后,清程極智團隊決定用工程解決這個問題——在官網上線一個“滿血版”鑒別小程序,并精心挑選了幾道比較有區分度的題目,用戶可以用這些題目去提問,如果系統回答得對,基本上就是“滿血版”;如果回答不出來,可能就不是“滿血版”。

該小程序上線后,其訪問量超出了清程極智的預期。

實際上,清程極智的經歷只是近期AI行業的一個縮影?!罢麄€AI行業這一個多月應該都過得很充實?!庇袠I內人士表示。DeepSeek的火爆,讓整個AI賽道的從業人員處于一種“痛并快樂著”的狀態。

一方面,DeepSeek的出現激發了普通用戶使用AI工具的意識和需求,推動了AI的普及。DeepSeek也成為有史以來增速最快的AI應用,據AI產品榜統計,DeepSeek 2月份活躍用戶1.57億,已接近ChatGPT 7.49億的20%。過多用戶的涌入,也讓DeepSeek對話機器人常常陷入“服務器繁忙”的狀態。

另一方面,DeepSeek的快速迭代和開源,讓本來就“卷”的AI行業進入了新一輪的“軍備競賽”,從模型層至應用層的很多公司,在今年春節期間幾乎沒有休息。眾多企業宣布接入DeepSeek,既有云服務提供商、芯片制造商等B端公司,也有各類C端應用公司。據正和島統計,已有超200家企業完成DeepSeek技術接口的集成部署。

接入的企業也迎來了一波“潑天流量”——騰訊元寶APP在接入DeepSeek之后,下載量迅速攀升,并在3月3日登頂中國區蘋果應用商店免費APP下載排行榜TOP1;作為AI基礎設施公司,硅基流動在全網最快接入DeepSeek-R1,訪問量激增40倍,2月訪問量高達1719萬人次。

DeepSeek-R1的出現,也進一步提高了各方對AIGC應用加速發展的期待。當3月6日Monica.im發布AI智能體產品Manus時,再次引發了一場“邀請碼搶購”狂潮。

無論是各大模型廠商還是AI產業鏈上下游的公司,都在興奮地等待通往未來AI世界的關鍵路徑。

01 如何接入DeepSeek?

早在2024年DeepSeek-V2模型發布時,業內已經關注到這家公司及旗下的開源模型。

美圖設計室技術負責人郭晨暉表示,為了在美圖的AI應用場景中給用戶更好的效果體驗,在自研的基礎上,美圖也一直對國內外優秀的大模型保持關注。DeepSeek-V2發布時,美圖的外采AI團隊就關注到了該模型,與DeepSeek團隊接觸嘗試合作。不過為了尋求穩定性,美圖當時主要通過第三方AI Infra服務商調用DeepSeek模型API。2024年9月,美圖設計室接入了V2模型,輔助文案擴寫,V3、R1模型發布后,他們也陸續進行了更新?!拔覀儺a品和業務團隊看到一些適合結合的模型,就會去做效果評估,合適的可能就會引入到我們自己的應用場景里?!惫繒熣f。

郭晨暉 來源:受訪者

DeepSeek官方提供了兩個接入方法,一是模型跑起來后,通過一些編程方式去調用它的API接口;二是用戶在手機上裝一個APP或打開官網的聊天窗口,直接跟它對話,聊天窗口的背后就在調用API。

不過,由于目前DeepSeek的流量過高,又存在服務器、人手不足等情況,導致DeepSeek自己的API會出現超時等問題。郭晨暉表示,美圖旗下產品有著大體量的用戶基數,一些功能推廣開來后流量可能會激增數十倍、上百倍,這種情況下,公有云的服務保障能力相對更強。

不僅如此,DeepSeek的模型比較大,尤其是“滿血版”模型對硬件有一定要求;基于性價比層面的考慮,美圖的業務場景存在很顯著的(使用)高峰、低峰效應,云廠商可以抹平各家調用API高低峰期的差異。“如果我們自己進行部署,低峰期資源利用率可能比較低,會有比較大的資源浪費?!惫繒熣f。

因此,美圖目前接入DeepSeek-R1模型的方式,主要是調用云廠商的API,在此基礎上進行一定的私有化部署。

與美圖類似,部署端側芯片的此芯科技,也一直對新發布的各種大模型保持關注,尤其是比較適合在端側進行本地化部署的模型。此芯科技生態戰略總經理周杰表示,對于一些開源的大模型,尤其是SOTA模型(State of the Art,在某一領域或任務中表現最佳的模型),他們會第一時間投入資源進行相應的異構適配。因此在DeepSeek去年發布V2以及今年發布R1后,此芯科技都第一時間嘗試適配這些模型。

在周杰看來,DeepSeek-V2模型的主要創新點有兩個,一是通過MLA(多頭潛在注意力)架構有效地降低了KV緩存(Transformer模型在自回歸解碼過程中使用的一種優化技術)的開銷,因為大語言模型對于內存帶寬和容量的要求很高,一旦能夠降低KV緩存,可以給算力平臺帶來很大幫助;二是DeepSeek發布的MoE(混合專家)模型,對傳統MoE架構進行了優化改造,這個架構可以讓一個(參數)更大的模型在資源有限的情況下被使用。

當時,此芯科技很快適配了V2模型的light版本,即16B大小的模型。“雖然16B參數看起來也很大,但實際運行時,它只會激活2.4B參數。我們覺得這樣的模型非常適合在端側運行,此芯科技的P1芯片也可以給2.4B參數規模的模型提供比較好的支持?!敝芙芨嬖V《中國企業家》。

周杰 來源:受訪者

對于此芯科技如何“接入”DeepSeek,周杰解釋道:“用戶現在使用DeepSeek等應用,很多需要調用云端的算力,相當于DeepSeek自己的數據中心或云廠商,提供了一些API給終端側應用調用,用戶使用DeepSeek APP時,就可以調用云端的AI能力。但是部分端側場景可能對數據隱私等方面有很高的要求,這種情況下就需要在本地進行運算,在端側部署后,用戶可以在斷網的情況下運行DeepSeek等模型?!?/p>

從算力和系統層面滿足了運行一個大語言模型的基本要求后,此芯科技就可以結合客戶項目的實際需求,跟DeepSeek等模型廠商進行商業化合作,對模型進行微調優化,把具體項目落地。

V2推出后,清程極智內部也嘗試接入該模型,但當時的市場需求較少,他們就沒有推廣使用。今年R1出來后,他們覺得這是一個非常好的機會,決定接入DeepSeek并大規模向客戶推廣。

清程極智是做系統軟件的,對外基于系統軟件提供推理服務,因此不是像部分應用公司那樣直接接入DeepSeek的API,而是為客戶提供一套專屬的DeepSeek的API用于應用服務。“我們接入的方式是把DeepSeek的開源模型下載下來,在我們的算力系統上用系統軟件把服務部署起來?!睖鄢f。

通俗來講,R1模型是一個幾百G大小的文件,但下載后無法直接使用?!八皇且粋€文件,不是一個可用的服務,我們要做的是把這個模型運行起來,讓它去對外提供服務的接口。通過API的服務接口,用戶就可以跟模型進行對話了?!睖鄢忉尩馈?/p>

基于前期技術積累,清程極智在把模型文件下載下來后,一天內就迭代出了第一個版本,隨后針對R1模型結構進行了優化,正式“滿血版”官宣上線只用了一周。

在湯雄超看來,技術環節的工作都比較順利,接入DeepSeek后,更多的挑戰來自于商務側或市場側。具體來說,DeepSeek的流量給公司帶來了非常多來咨詢的客戶,但每個客戶的需求都不太一樣。“包括算力平臺、芯片型號、服務器規格等都不一樣,我們需要針對不同的算力等基礎,做針對性的調優?!睖鄢f。

02 API成本降低推動大模型普及

在2024年5月發布V2模型后,因其極致性價比,DeepSeek獲得“AI界拼多多”的稱號,并帶動國內大廠打起了大模型價格戰。

價格戰降低了API費用。以美圖“AI商品圖”為例,在郭晨暉看來,一方面,美圖在AI圖像處理上擁有強大技術優勢,而DeepSeek模型的接入帶來了用戶體驗和轉化的正向反饋,且大語言模型API的調用成本占比很低,這與美圖的業務場景形成了很好的優勢互補,因此美圖也會加大對大語言模型應用的關注。

2月9日,DeepSeek停止了V3模型為期45天的優惠價格體驗期,API恢復原價,每百萬輸入tokens 0.5元(緩存命中)/2元(緩存未命中),每百萬輸出tokens 8元。R1的百萬tokens輸入價格(緩存命中)為1元,百萬tokens輸入價格(緩存未命中)為4元,輸出價格為16元。

但OpenAI官網顯示,GPT-4o的2.5美元/百萬輸入tokens,10美元/百萬輸出tokens;最新發布的GPT-4.5的百萬輸入/輸出tokens更是高達75美元/150美元,僅較GPT-4o就上漲了15~30倍。

在郭晨暉看來,一方面DeepSeek模型調用費用在美圖AI研投的整體成本占比不高;另一方面,DeepSeek恢復原價后依然處于比較便宜的價格區間,且美圖接入DeepSeek后,在用戶轉化及反饋上是正向的,因此他們會加大在大語言模型方面的投入。

周杰也認為,DeepSeek的API價格比OpenAI低了很多倍,對于企業和用戶而言,買token的費用大大降低。在端側模型層面,現在一個3B的模型可能就能做到以前7B以上規模的模型效果,內存等成本也相對降低了。

“這是個軟硬件協同的過程。同樣的硬件條件下,現在相當于能實現以前更大參數規模的模型效果,或者要達到同樣的模型效果,對硬件的要求變低了?!敝芙苷f。

3月初,持續五天的“DeepSeek開源周”結束后,DeepSeek團隊首次對外公布了模型的優化技術細節、成本利潤率等關鍵信息。按DeepSeek測算,其成本利潤率理論上能達到545%。

大模型成本的快速降低以及能力的提升,也帶來了to B和to C領域用戶的高速增長。湯雄超透露,現在有很多的中小企業會主動聯系到他們,希望獲得基于R1模型的產品。

03 AI應用將加速爆發

百度創始人、董事長兼CEO李彥宏在《緊抓AI智能體爆發元年機遇,推動新質生產力加快發展》一文中寫道,大模型的推理成本,每12個月就降低90%以上,遠超“摩爾定律”。隨著大模型技術的迭代和成本的直線下降,人工智能應用將大爆發。

目前,AI市場處于高速增長階段,湯雄超認為,DeepSeek的理論利潤率高達545%,對于整個行業的意義和影響非常積極,給市場科普了算力系統軟件的重要性。

湯雄超 來源:受訪者

“過去大家并不是非常重視軟件的能力,DeepSeek讓大家認識到,花錢買軟件不是浪費錢,而是為了更好地省錢?!睖鄢硎?,在受過教育的市場環境下,核心系統軟件的優勢能被更大地發揮出來;短期來看,DeepSeek的開源也能讓各方降低產品交付的商業成本。

隨著越來越多企業接入DeepSeek,在其開源生態上做“建設”反饋,DeepSeek的發展進程也在加速。

郭晨暉認為,這也是DeepSeek的開源生態最大的優勢——接入的企業在各自應用場景上打造差異化能力產品的同時,應用場景也能推動DeepSeek等基座大模型的發展。“各家公司在開源生態的差異化部署不僅能加速AI的創新,大模型的低成本化也有助于大模型在垂直細分領域的可用性,給AI的應用帶來更大的想象空間。”郭晨暉說。

在周杰看來,除了云端應用爆發外,在DeepSeek的推動下,端側AI應用也會在2025年實現井噴式發展。

“未來的AI其實是一個混合式的人工智能,不是所有的東西都在云端跑,也不是所有東西都在端側跑,因為各有各的優勢。如端側只能跑相對小規模參數的模型,但對于某些任務來說,對精度有更高要求,還是要用云端算力;而為了保證數據安全和隱私,就需要使用端側能力實現以前更大參數規模的模型效果,這就形成一個混合式的部署方案?!敝芙苷f,此芯科技也在跟云廠商進行這方面的應用探索。

“AI應用元年”已經不是一個新概念,但截至目前,AI行業從業者以及投資人,還在尋找更適合AI應用的落地場景。在周杰看來,這只是時間問題,“一個新生態的發展肯定需要一定時間,所有的東西不會突然完善,需要軟件和硬件不斷迭代。目前來看,芯片側、模型側等已經為AI的大規模應用打下了堅實的基礎,后面需要更多的開發者來開發AI應用,滿足實際的場景需求?!?/p>

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 醴陵市| 江西省| 大关县| 洪洞县| 安丘市| 黄平县| 蓝田县| 明光市| 临泉县| 鄄城县| 汪清县| 德庆县| 西华县| 增城市| 清水县| 沙坪坝区| 双江| 睢宁县| 澄江县| 虞城县| 梅河口市| 双鸭山市| 平潭县| 汽车| 正镶白旗| 竹山县| 南和县| 马山县| 望谟县| 平山县| 开远市| 绥宁县| 栾城县| 凤山县| 新兴县| 青海省| 岳西县| 陇西县| 宜君县| 定州市| 遂昌县|