文|硅兔賽跑 Lexie
編輯|Lu
近年來,各種反烏托邦式英美劇大火,而人工智能頻繁成為了其中的重要話題,比如《西部世界》中描繪的“殺人”機器人,《黑鏡》中演繹的生成式AI偷取真人生活等等。
《黑鏡:我不是機器人》片段
現實生活中,AI已經有了不少“黑料”,鼓勵抑郁癥用戶自殺、為用戶提供如何刺殺英國女王的建議、還有對未成年用戶提供細思恐極的建議等等,此外AI的使用也在某些情況下加深了社會上的歧視、仇恨言論和虛假信息的傳播,導致錯誤逮捕、誹謗、網暴和謠言等各種社會性問題加深。
自從AI誕生,它對人類的賦能和其對社會危害的討論一直是并行的,正是因其雙刃性,科技圈的各種大佬對AI的態度也是大相徑庭,甚至可以說,AI成為了有史以來讓科技圈態度最為割裂的話題之一。
01、AI保守派
在眾多對AI采取較為保守態度的科技大牛中,最讓人有些驚訝的就是被稱為“ChatGPT”之父的OpenAICEO - Sam Altman。
在去年ChatGPT推出后,Altman就開始了對于AI監管的大型游說,在華盛頓與兩黨領導人和副總統等白宮內閣成員就AI進行討論,呼吁政府出手對AI進行監管,他還在25個城市內進行了為期一個月的全球巡回演說,與各國領導人會面,開誠布公的探討AI的潛在危害以及表達對AI監管的需求。今年5月,他還主動參加了一次關于AI討論的國會聽證會。
與此前小扎和貝索斯等人毫不情愿出現在聽證會上,還要面紅耳赤與國會成員爭吵辯論的畫風不同,Sam Altman選擇主動參加會議,在會議上Altman表示,如果AI技術產生危害,這些危害將非常致命,他想和政府合作防止最壞情況的發生。
在具體應用領域上,Altman指出,AI被用于傳播虛假信息是他最擔心的事情。他還認為,AI有可能會帶來失業,但也有機會創造新的工作機會,政府的決策很大程度上可以決定事情向哪個方向發展。同時他還建議成立AI監管機構,為大規模AI模型的開發頒發許可,AI模型的安全法規和測試在向公眾發布之前必須通過許可。
Altman的主動攻勢對于引導政府對AI的態度極其重要。
因為他游說的主題雖然是監管AI,但同時更是讓立法者對人工智能產生興趣和進行了解,縮小了以往華盛頓和硅谷間的信息鴻溝,避免此前科技公司與立法者間關于干預程度的沖突。
他的策略也確實起了作用,立法者已經將他視為AI監管的導師和盟友,會邀請他對ChatGPT進行介紹,也在立法時尋求他的建議。
就在這一聽證會后不久,Altman還與多位AI科學家共同簽署了一封信,內容非常簡短,只表達了“我們應該將減輕AI對滅絕人類的風險作為全球的首要任務”,簽署這封信的還包括DeepMind的CEO Demis Hassabis,Anthropic的聯合創始人Daniela Amodei,以及被稱為“AI教父”之一的Geoffrey Hinton。
Geoffrey Hinton在Google任職有十年之久。他在神經網絡和深度學習方面的開創性研究為 ChatGPT 等人工智能系統奠定了基礎。
今年Hinton宣布將從Google離職,主要是為了可以更加公正自由的對公眾介紹AI帶來的危害。他曾在多個場合表示,AI目前的智能已經到了令人細思恐極的地步,雖然還沒有達到人類的水平,但這一未來并不遙遠,同時AI將以我們無法還想象的方式改變社會,而這些改變很大程度將是糟糕的,比如惡勢力使用AI發動軍事襲擊等等,他認為AI所帶來的威脅比氣候問題還要嚴重,甚至表示他后悔自己在AI方面做出的努力。
Geoffrey Hinton 的觀點
同樣有著“AI教父”之稱的 Yoshua Bengio與Hinton觀點類似,他在與Business Insider的采訪中表示,AI樂觀派認為AI滅絕人類并不會成為問題,但沒人能確保這一點,在沒有證據保證這一末日不會到來之前就宣揚它的安全性是不負責的。
選擇站在這一戰線的還有Elon Musk、著名認知科學家Gary Marcus、還有Apple的聯合創始人Steve Wozniak等。
他們在今年3月聯合數百位科技界的知名人士共同簽署了一封公開信,號召所有AI研究室立即停止訓練比GPT-4更強大的AI模型至少半年,為了防止AI的進展太快對社會和人類產生巨大風險,目前聯名人數已經超過了3萬。
號召暫停AI研究的公開信
02、AI降臨派
不過,與上述大佬持反對態度的也大有人在,他們對于“AI滅絕論”沒那么緊張,反倒是更看重AI對社會發展的積極作用,其中的主要聲音之一就是與上面提到的Geoffrey Hinton和Yoshua Bengio曾一起獲得圖靈獎的Yann LeCun。
LeCun以其在卷積神經網絡方面的工作而知名,目前是Meta的首席人工智能科學家。
Yann LeCun對于AI發展的態度更偏向于大膽和樂觀,就在10月末,他加入了其他70多位學者大牛,簽署了題為“關于AI安全性和開放性聯合聲明”的一封公開信,信中提到,我們正處于AI發展的關鍵時刻,為了減輕AI對當前和未來的危害,我們應該擁抱更加開放、透明和廣泛的AI權限,這應當成為全球的首要任務。
信中并沒有對開放式AI模型的潛在危險避而不談,重點更多放在了警告AI監管的危害上,比如過早采取錯誤監管會導致權力集中,從而損害競爭和創新。同時還建議從開源到開放科學等多個方面去加速進行AI的嘗試和研究,降低新玩家進入AI競賽的門檻等等。信的最后寫到“在人工智能安全方面,開放是解藥,而不是毒藥,” 這封公開信目前已經有接近400個知名人士的簽名。
“關于AI安全性和開放性聯合聲明”的一封公開信
Yann LeCun最近還在X上發表了長篇小作文表達自己對AI監管說的不滿。
不但抨擊了Altman等人對AI監管的態度,還劍指Geoffrey Hinton和Yoshua Bengio是在為這些AI監管游說者提供彈藥。他說,“如果你們成功讓人們開始畏懼AI,那么我們曾經都認為的世界末日就會真正到來,那就是只有少數公司能夠掌握對AI的控制權。”
LeCun最后還將問題的嚴重程度上升到了社會層面,他質問AI監管論者是否思考過它對民主和文化多樣性會產生什么樣的影響,并表示這些問題讓他徹夜難眠。
Yann LeCun的推文
與Yann LeCun站在同一戰線并且也簽署了上面這封聯合聲明的還有知名AI學者、Google Brain的創始人和斯坦福大學計算機科學系教授吳恩達(Andrew Ng) 。
他不但反對社會上對AI監管的聲音,而且直白表示科技大公司們只是為了自身利益才試圖夸大人們對AI的恐懼,因為他們并不想與開源公司競爭。吳恩達還在自己的X上發表了推文,表示目前對于AI監管的游說將會促成一些壓制開源和阻礙創新規定的建成,而這則是他最恐懼的事情。
Andrew Ng的推文
隨后Geoffrey Hinton很快在這條推文下進行了回復,不但出了一道題,讓吳恩達計算 “如果AI不被嚴格監管,它在未來30年內導致人類滅絕的概率是多少?我的估計是 0.1,我猜Yann LeCun估計的值小于0.01,” 而且還表示,“如果大公司游說AI監管是為了自己利益而進行的陰謀論,那么我從Google離職不就是最好的反證嗎?”
隨后LeCun加入討論,表示他估計的概率是比其他能夠導致人類滅絕原因的概率小的多,并且讓Hinton計算AI拯救人類免于滅絕的概率。
吳恩達也很快回復,表示自己并沒有說這是一場陰謀論,但舉了一些例子來表達過度夸大AI的恐懼會帶來的真正傷害,比如新的人才拒絕加入AI領域,因為他們不想成為人類滅絕的幫兇,并再次強調了監管對開源和創新的傷害。
大佬們的討論推文
與Yann LeCun和吳恩達等人類似,持AI“樂觀論”的還有美國知名經濟學家Eric Von Hippel、AI開源模型庫軟件Hugging Face的CTO Julien Chaumond、AI Now機構的創始人Meredith Whittaker、a16z的合伙人Anjney Midha,還有來自多個高校的知名AI研究者,比如哥倫比亞大學的Camille Fran ois、UC Berkeley的Deborah Raji、以及普林斯頓的Arvind Narayanan等等。
03、討論未休,監管已至
在大佬們對AI的討論如火如荼進行的同時,白宮也加速了立法和監管方面的腳步。
近幾個月來,拜登政府頻繁與科技公司高管和民權領袖會面,討論AI的發展問題,白宮在5月宣布向國家科學基金會提供1.4億美元,專用于建立全國多個AI研究所,還陸續在7月和9月與Amazon、Google、Meta、Microsoft和OpenAI等多家科技公司達成協議,這些科技公司表示它們將增加對網絡安全和歧視研究的投資,以及會對用戶公開告知AI生成內容及其風險。
10月底,白宮還發布了首個關于人工智能的行政命令,旨在為AI安全和保障制定標準,在促進創新和競爭的同時保護公民的隱私和權利,這一規定中的主要內容包括:
要求研發AI模型的大公司在其系統對外公布前與美國政府分享其安全測試結果;
美國國家標準與技術研究所將為廣泛的紅隊測試制定嚴格標準,國土安全部也將成立人工智能安全委員會;
美國商務部將制定內容認證和水印指南,來明確標記人工智能生成的內容;
加速聯邦支持對隱私保護技術的開發,比如讓AI系統在被訓練的同時更好的保護訓練數據;
在司法和民權等多個系統內對AI算法進行更明確的指導,以防AI被用來加深社會歧視問題;
推動AI在醫療保健和教育領域的應用,比如用于開發藥物和創造教育資源;
通過國家AI研究資源試點加速全美的AI研究,為小型開發者提供資源支持,吸引AI方面的人才留美。
與此同時,由英國主辦的首屆全球人工智能安全峰會也在英國布萊切利公園舉行。這也是“AI之父”圖靈發明第一代圖靈計算機的地點,來自中國、美國、英國在內的28個國家及歐盟領導人參會,并共同簽署了“布萊切利宣言”。
宣言承諾,以安全、負責和以人為本的方式進行AI的開發和使用,其中提到各國應共同關注AI安全風險并建立基于這些風險的科學認知和理解,同時各國還應各自制定適用于國情的基于風險的人工智能政策。
對于科技初創公司來說,立法規定往往意味著對技術發展澆下的一盆冷水。
但此次來自政府的行動卻不全然如此,比如白宮規定中鼓勵對AI類人才的引進將有望打破目前初創公司難以留住外國人才的現狀,政府對AI推動教育的期許也代表著教育科技類公司將可能獲得風投外來自政府的資金支持等等。
任何科技的發展都是在支持和反對的聲音中前進的,而AI正因背負著巨大的期待,在未來很長一段時間內仍會成為話題中心,甚至將繼續“割裂”硅谷的聲音,也許歷史和時間能告訴我們真相,在評論里討論下你更支持哪一派的聲音呢?
參考來源:
OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing (The New York Times)
Meta’s Yann LeCun joins 70 others in calling for more openness in AI development (TechCrunch)
Joint Statement on AI Safety and Opennes (Mozilla)
Biden’s AI Order May Have Wide Impact For Startups (Crunchbase)
AI's most famous leaders are in a huge fight after one said Big Tech is cynically exaggerating the risk of AI wiping out humanity (Business Insider)
文末互動:
你是保守派還是降臨派?
評論區留言告訴我們你的想法哦~