界面新聞記者 | 崔鵬
6月21日上午,在一場北大光華管理學院的活動上,騰訊集團高級執行副總裁、云與智慧產業事業群CEO湯道生表示,人工智能(以下簡稱“AI”)對世界的改變,一定是通過與產業融合實現的,大模型只是起點,未來應用落地的產業變革才是更大的圖景。
湯道生在演講中回顧了AI發展的歷史,表示算法創新、算力增強、開源共創三大因素的疊加,構成了AI的“增長飛輪”。
他認為,現在的企業應該積極擁抱人工智能技術。過去傳統的研發、生產、銷售、服務等環節中,有很多依賴人來判斷、協調與溝通的地方,都可以疊加AI的生產力來提質、降本與增效。而通用大模型缺乏專業知識和行業數據積累,導致模型的行業針對性與精準度不夠,數據“噪音”過大,企業客戶更需要有針對性的行業大模型產品。
在湯道生看來,企業使用的大模型必須可控、可追溯、可修正,而且必須反復與充分測試才能上線。如何在合理成本下選擇合適安全的模型,是企業客戶所需要思考與決策的。
以下為湯道生演講摘要(有所刪減):
隨著大語言模型的發展,我們正在進入一個被AI重塑的時代,從生產銷售、組織人才,到產業革新、社會發展,都會發生劇烈的變化。
許多企業管理者也在思考,如何把大模型技術應用到自己的企業場景中,比如在客服與營銷環節,為業務經營帶來更多降本增效?如何在使用大模型時,保護企業數據的產權與隱私?如何降低大模型的使用成本?這些都是企業管理者需要考慮的現實問題。
最近,OpenAI給ChatGPT API增加了函數調用能力,這意味著大模型也能使用工具了。自己不具備的能力,可以靠各種第三方服務嘗試解決,大大增加了通用大模型解決問題的能力。
大語言模型代表人工智能的發展已經達到了一個新的高峰。用大量數據預訓練的模型也推動機器視覺、語音識別、機器人等AI能力發生新的突破。
大語言模型不僅懂多種人類語言,還掌握多種程序語言,還可以幫助程序員寫代碼。我們打造了騰訊云新一代AI代碼助手,實現AI對代碼的理解,輔助程序員編寫、排錯與測試,為軟件研發的全流程助力,提高開發效率與代碼質量。
大語言模型不僅能與人溝通,更重要的是通過模型的精調,可以按需求產生一系列的執行步驟,比如聯網調用不同插件的能力,加上多模態讓AI同時能看懂圖、聽懂話、會規劃、能行動,這樣就可以做出更強大的應用,讓AI更像真正意義上的智能助手,完成更高級的任務。
比如線上廣告投放員,每天需要刷新大量廣告素材,確保廣告投放的ROI。如果結合廣告效果數據與文生圖能力,可以不斷地根據數據分析,生成投放策略,調整投放渠道,并且針對性的生成投放素材,自動化程度與效率都會更高。
企業應該如何擁抱AI?
事實上,不管哪個行業都應該積極擁抱AI,過去的研發、生產、銷售、服務等環節中,都有很多依賴人來判斷、協調與溝通的地方,今天我們應該看下哪些環節可以疊加AI的生產力來提質、降本與增效。
既然大模型這么重要,在座的企業家與管理者,可能也會問我們如何把它用在企業上,抓住技術變革的紅利?
我可以給企業管理者一些建議:
第一,聚焦企業自身業務,挑選具體場景,讓AI成為服務的增量;
第二,確保訓練數據質量,梳理出測試用例,建立上線評估流程;
第三,確保服務合規,同時關注數據的產權與隱私;
第四,使用云廠商工具,搭建一體化的模型服務,這樣效率比較高,節約訓練、運維的成本和時間。
在具體實施中,模型、數據和算力是大家需要格外關注的三個點。
首先是模型。雖然大家對通用大語言模型的聊天機器人期待很高,但它不是唯一的大模型服務方式,也不一定是滿足行業場景需求的最優解。
目前,通用大模型一般都是基于廣泛的公開文獻與網絡信息來訓練的,上面的信息可能有錯誤、有謠言、有偏見,許多專業知識與行業數據積累不足,導致模型的行業針對性與精準度不夠,數據“噪音”過大。
但是在很多產業場景中,用戶對企業提供的專業服務要求高、容錯性低,企業一旦提供了錯誤信息,可能引起巨大的法律責任或公關危機。因此,企業使用的大模型必須可控、可追溯、可修正,而且必須反復與充分測試才能上線。
我們認為,客戶更需要有行業針對性的行業大模型,再加上企業自己的數據做訓練或精調,才能打造出實用性高的智能服務。企業所需要的是,在實際場景中真正解決了某個問題,而不是在100個場景中解決了70%-80%的問題。
另外,訓練數據越多,模型越大,訓練與推理的成本也越高。實際上,大部分的企業場景可能也不需要通用AI來滿足需要。因此,如何在合理成本下選擇合適的模型,是企業客戶所需要思考與決策的。
其次,數據是大模型的原材料。針對具體場景,相關數據的覆蓋與質量都至關重要,標注數據的管理也是模型迭代中的重要工作。
模型最終要在真實場景落地,要達到理想的服務效果,往往需要把企業自身的數據也用起來。在模型研發過程中,既要關注敏感數據的保護與安全合規,也需要管理好大量的數據與標簽,不斷測試與迭代模型。
再次,算力是模型持續運轉的基礎。高性能、高彈性和高穩定的算力,需要借助專業的云服務。
在大模型的訓練和使用過程中,需要大量異構算力的支持,對網絡速度與穩定性要求也很高,加上GPU服務器比一般服務器穩定性更低一些,服務器的運維、問題的排查更頻繁,整體運維的難度與工作量會高很多。
在訓練集群中,一旦網絡有波動,訓練的速度就會受到很大的影響;只要一臺服務器過熱宕機,整個集群都可能要停下來,然后訓練任務要重啟。這些問題會使得訓練時間大大增加,投入在大模型的成本也會飆升。
騰訊能做些什么?
基于這些企業現實問題和需求的思考,就在前兩天,騰訊也正式公布了騰訊云MaaS服務全景圖。
基于騰訊云TI平臺打造的行業大模型精選商店,將覆蓋金融、文旅、政務、醫療、傳媒、教育等10大行業,提供超過50個解決方案。在這些能力模型基礎上,客戶只需要加入自己獨有的場景數據,就可以快速生成自己的“專屬模型”。
我們也推出基于騰訊云TI平臺的行業大模型精調解決方案,幫助模型開發者與算法工程師一站式解決模型調用、數據與標注管理、模型精調、評估測試與部署等任務,減輕創建大模型的壓力。我們也可以通過TI平臺實現模型的私有化部署、權限管控和數據加密等方式,讓企業用戶在使用模型時更放心。
在算力服務上。騰訊云所提供的穩定計算、高速網絡與專業運維,可以為算法工程師大大減輕設備運維的壓力,讓他們把精力放在模型的構建與算法的優化上。
騰訊云也打造了面向模型訓練的新一代HCC(High-Performance Computing Cluster)高性能計算集群。其搭載最新次代GPU,結合多層加速的高性能存儲系統,加上高帶寬、低延遲的網絡傳輸,整體性能比過去提升了3倍,獲得了很多客戶的高度認可,幾家大模型獨角獸,都與騰訊展開了算力合作。
在計算集群的“硬實力”之外,騰訊最近也推出了更適合AI運算的“軟能力”——向量數據庫,它能更高效地處理圖像、音頻和文本等非結構化數據,支持單索引10億級規模,比單機插件式檢索規模提升10倍,數據接入AI的效率也比傳統方案提升10倍。
毫無疑問,AI對世界的改變,一定也是通過與產業的融合實現的。機器決策、自主生成、自然交互等一系列變革,推動產業實現更高效率、更低成本、更好體驗和更大創新。未來的企業,也將向智能原生進化。