編譯|智東西 吳菲凝
編輯|李水青
智東西3月9日報道,近日,外媒華爾街日報記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機器人的發展歷程,研發時間竟然已經長達十年之久。在此期間,該項目更是經歷了反復審查失敗、多次更名和多位核心人員離職等波折。
谷歌的聊天機器人投入可以追溯到2013年,而后研發出一款名為Meena的聊天機器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進展,至今產品仍未公開發布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之后,谷歌匆忙公開了自己名為Bard的聊天機器人,但其卻在公開展示視頻中意外“翻車”。
華爾街日報兩名記者認為,谷歌此前對待AI的態度太過于謹慎,以至于現在陷到一個“起大早,趕晚集”的尷尬境地,為競爭對手微軟提供了可乘之機。
在谷歌內部,高管們認為,谷歌必須保證AI技術足夠安全才能夠推向公眾。
01 兩年前聊天機器人已面世,因安全問題隱而未發
谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機器人Meena的研發,據稱所使用的技術遠勝于當時其他任何技術。他們開發出的對話式計算機程序可以像人一樣自信地談論哲學,還能即興創作出一些雙關語。
據知情人士透露,這兩位研究人員向同事們稱,聊天機器人在AI的不斷進步的推動下,未來將徹底顛覆人們使用搜索引擎和與計算機交互的方式。
他們敦促谷歌向外部研究人員提供Meena的訪問權限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機器人。
但谷歌高管多次明確拒絕了他們,高管認為該計劃不符合公司對AI系統安全性和公平性的標準。
谷歌這種拒絕公開發布的謹慎態度,主要是由于長年以來外界對于公司在AI方面的爭議。從關于AI的準確性和公正性的內部爭論,再到公司去年公開解雇了一名聲稱AI已經獲得人類感知的員工,谷歌一直處于輿論的風口浪尖之上。
據前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔心公開演示AI產品可能對公司聲譽和搜索廣告業務構成風險。據悉,谷歌母公司Alphabet去年營收近2830億美元,其中大部分收入來自搜索引擎廣告投放業務。
前谷歌產品經理高拉夫·內馬德(Gaurav Nemade)說:“谷歌正在努力在承擔風險和保持全球領導地位之間找到平衡。”
谷歌的謹慎態度如今看來是明智之舉。二月份時微軟曾宣布,針對于聊天機器人發表敏感言論的用戶報告反饋,未來將對機器人施加更多新限制。微軟高層解釋,當應用程序運轉到難以負荷時,它可能會出現“精神錯亂”的現象。
在上月一封發給全體員工的郵件中,Alphabet和谷歌的首席執行官桑達爾·皮查伊(Sundar Pichai)稱:“一些最成功的產品并不是第一個推向市場,但卻能慢慢贏得用戶的信任。”他寫道,“這將是一段漫長的旅程——對每個人來說,都是如此。我們現在能做的最重要的事情是專注于打造一款偉大的產品,并負責任地開發它。”
02 十年秘密研發:多次審查不過、內部禁止,最終改名
谷歌在聊天機器人方面做出的努力可以追溯到2013年。
時任谷歌聯合創始人兼首席執行官的拉里·佩奇(Larry Page)聘請了計算機科學家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個前所未有的概念“技術奇點”:即機器終有一天將超越人類的智慧。
此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣致力于創建通用AI或可以反映人類心理能力的軟件。
但與此同時,學者和技術專家開始對AI提出擔憂,比如它有可能通過面部識別軟件實現大規模監控,他們開始向谷歌等科技公司施壓,要求他們承諾不會將某些技術用作非法途徑。
2015年,包括馬斯克在內的一群科技企業家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會成為企業利益的犧牲品,而是用于造福人類。
此前,谷歌與美國國防部擬定的一項名為“Project Maven”的合同遭到了員工的強烈反對,因為該合同涉及到使用AI自動識別并跟蹤潛在的無人機,谷歌最終放棄了這個項目。直至2018年,谷歌宣布承認不會將AI技術應用于軍事武器制造方面。
除此之外,CEO皮查伊還宣布了一套指導谷歌運作的7項AI原則,旨在限制不公正技術的傳播,比如人工智能工具應該對人負責,并“為安全而構建和測試”。
多年來,谷歌這款名為Meena的聊天機器人項目一直處于保密狀態中。一部分內部員工對這類程序的風險表示擔憂,因為2016年時微軟曾因為一款名為Tay聊天機器人的誤導性回答,最終被迫終止公開發布。
直至2020年,外界才對Meena有所了解。在谷歌發布的一項研究論文當中稱,Meena已經從公開的社交媒體對話中學習了近400億個單詞。而競爭對手OpenAI同樣開發了一個基于800萬個網頁的類似模型GPT-8。
在谷歌,Meena背后的團隊也希望能早日發布他們的工具,即使只是像OpenAI那樣以有限的格式發布。但谷歌高管們多次拒絕了這一提議,據前谷歌產品經理內馬德稱,他們給出的理由是聊天機器人不符合谷歌關于安全和公平的AI原則。
谷歌發言人稱,多年來,Meena經過了無數次審查,但一直因為各種原因而被禁止進行更廣泛的發布。Google Brain人工智能研究部門的軟件工程師沙澤爾加入了這個項目,他們將Meena更名為LaMDA,意為“用于對話應用程序的語言模型”。團隊還為賦予了LaMDA更多的數據和計算能力。
然而,他們的技術很快引發了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關于LaMDA等項目固有風險的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴謹。
谷歌研究主管杰夫·迪恩(Jeff Dean)稱,谷歌將繼續投資對大眾負責的AI項目。
2021年5月,公司公開承諾會將AI道德小組的規模擴大一倍。
在一周后,皮查伊在公司年會上登臺,展示了兩段預先錄制的與LaMDA的對話,LaMDA根據命令對問題作出回應。據知情人士稱,谷歌研究人員在會議召開前幾天準備了這些問答案例,并在最后一刻向皮查伊演示。谷歌一再強調自身將努力使聊天機器人更加準確,并最大限度地減少其被濫用的機會。
谷歌的兩位副總裁當時在一篇博客文章中寫道:“在創建像LaMDA這樣的技術時,我們的首要任務是努力確保將風險降至最低。”
03 核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌
2020年時,弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手機Pixel和家庭音箱系統上首次推出的一款軟件應用程序,每月有超過5億人使用Google Assistant來執行一些基礎任務,比如查看天氣和安排約會。
知情人士稱,谷歌不愿向公眾發布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術建立一家自己的初創公司。中途皮查伊多次干預,要求兩人留下來繼續研究LaMDA,但卻沒有向他們承諾何時將會發布。
2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當年11月成立了初創公司Character Technologies。他們研發的AI軟件Character于2022年正式發布,該軟件允許用戶創建聊天機器人并與之互動,機器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。
“這款軟件的發布在谷歌內部引起了一些轟動。”沙澤爾在YouTube的一段采訪中稱。在他看來,作為一家小初創公司來推出這款軟件可能更加幸運。
2022年5月,谷歌考慮在當月的旗艦會議上發布LaMDA。而據谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)后來透露,被解雇是因為他在社交平臺上發布了與聊天機器人的對話,并聲稱它是有知覺的。
在勒莫因發布的內容引發廣泛爭議之后,谷歌取消了原本的發布安排。谷歌表示,勒莫因的公開披露違反了就業和數據安全政策,因此公司需要做出保守起見的安排。
自從微軟與OpenAI達成新協議以來,谷歌一直在努力向大眾展示自己作為AI創造者的行業地位。
在今年ChatGPT首次亮相后,谷歌也準備公開發布自己的聊天機器人Bard,該機器人部分技術基于弗雷塔斯和沙澤爾當年的研究,它搜集從網絡中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動中表明,原計劃是想對Bard的區域性搜索功能更進一步的探討,讓媒體和公眾對Bard有新的認識,知曉它是一個使用類似LaMDA的AI技術來回應輸入文本的搜索工具。
據谷歌高層稱,谷歌經常會重新評估發布一款產品的條件,但由于現在面臨太多的外界刺激,才在一個并不十全十美的情況下發布。
谷歌搜索副總裁伊麗莎白·里德(Elizabeth Reid)在接受采訪時稱,自去年年初以來,谷歌也對搜索產品進行了內部演示,這些產品也整合了LaMDA等生成式AI的響應。
谷歌認為生成式AI最有用的搜索用途之一,是在沒有標準正確答案下進行的問題搜索,他們將其稱為“NORA”。里德說,傳統的搜索功能可能已經滿足不了現在的用戶了,谷歌還看到了其他復雜搜索的潛在可能,比如說解一個數學題。
高管們說,和其它類似項目一樣,最大的問題是它的準確性。使用這些搜索工具的人說,基于LaMDA技術構建的工具在某些情況下會給出一些偏離主題的回答。
同樣,微軟新版Bing在上個月已經發布,對于此前用戶報告的與聊天機器人之間產生的令人不安的對話,將會通過限制聊天時間的方式來減少機器人發出攻擊性或令人毛骨悚然的反應的機會。
谷歌和微軟都承認自己的聊天機器人還存在很多不準確的地方。
在談到像LaMDA這樣的語言模型時,里德認為像是“在和一個孩子說話”,當一個小孩子給不出大人想要的答案時,他會編造出一個聽上去合理的答案來應對。
谷歌未來還將繼續微調其模型,包括訓練模型承認自己不知道答案而不是編一個。
04 結語:AI領導者谷歌首戰失意,微軟略占上風
谷歌聊天機器人的研發自2013年起步,2017年時已實現了重大的技術突破——神經網絡系統Transformer,這也是ChatGPT所用到的底層技術,隨后又發布了預訓練大模型BERT;21年,微軟發布了ChatGPT的前身GPT-3,谷歌緊接著發布了預訓練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依托LaMDA的輕量級模型版本發布,谷歌在與微軟的較量中加快步伐。
長期以來的輿論壓力、層層加壓的安全審查,以及裁員后嚴重的人才流失情況,讓谷歌進入到一個短暫的業務疲軟時期,整體業績下滑。但從長期來看,谷歌并未輸掉這場巨頭之爭,它所擁有的LLM(語言大模型)團隊和定制芯片,在市場上難尋敵手。
與此同時,我們也不難發現,大模型和生成式AI的產業落地必然是場艱難長跑,巨頭們在技術、產品、生態、安全等多方面面臨的壓力重重,隨著生成式AI大規模接入應用程序當中,穩定性和可靠性也將成為用戶更看中的評判標準,也更考驗各家基礎設施的能力。