簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

掃一掃下載界面新聞APP

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

在某種意義上,計算機其實就相當于當年推動工業革命的動力織布機和蒸汽機的延續。

編譯|來咖智庫 豆豆

編輯|龔巖

最近 43 歲的谷歌研究員上交了一份長達21頁紙的調查報告,試圖讓高層相信AI已經產生了自我意識,結果被高層勒令回家,帶薪休假。這件事在科技圈引發了激烈的討論。有專家指出,這不過是語言模型罷了,并不意味著人工智能真的產生了意識。想象有這樣一臺計算機,它能夠用更好的措辭來完成你的句子;或使用一段旋律作曲,聽上去就像是你自己寫的(即便你永遠也不會去寫);或創造數百行計算機代碼來解決問題,使你能夠專心于其他更難的工作。在某種意義上,計算機其實就相當于當年推動工業革命的動力織布機和蒸汽機的延續。但計算機也屬于一種新的類別的機器,因為它能夠捕捉語言、音樂和編程符號,并以看起來有創造性的方式應用。有點像人類自身。

能實現這些的“大模型”(Foundation Models)代表著人工智能(Artificial Intelligence,AI)領域的突破。它們也有望帶來革命,這次會影響到從前工業革命從未涉及的高級腦力勞動。前方的道路并不清晰,畢竟AI在以前也翻過車。但已經到了關注機器智能領域未來新事物的前景與挑戰的時候了。

在十年前崛起并于現在占據AI統治地位的深度學習(Deep Learning,DL)領域,大模型是其中取得的最新前沿進展。深度學習系統大體上基于人腦中的神經元網狀結構,會經歷數百萬甚至數十億文本、圖像或音頻等樣本的“訓練”。近年來,越來越大的深度學習系統的訓練時間和金錢成本暴漲,引發了人們對于該技術已經達到極限的擔憂。有些人開始擔憂“AI寒冬”的出現。但大模型顯示,通過建設更大、更復雜的深度學習系統,確實能夠持續解鎖令人驚嘆的新能力。沒有人知道其極限在哪里。

由此得到的模型是一種新型、有創意、非人類的智能。這些系統足夠成熟,既能夠深刻把握語言,又能夠有連貫性地打破規則。一條狗看不懂《紐約客》雜志的笑話,但AI卻能夠解釋其笑點在哪里。說實話,這一點甚至連有些人類讀者都做不到。

大模型有一些令人驚奇且有用的特性,其中最怪異的就是其“突創性”行為。也就是說,理解笑話的能力和根據情勢匹配諺語等技巧并非刻意設計的結果,而是取決于模型的規模和深度。就像是快速閃過的靜態圖像會給人在移動的感覺一樣,上萬億的二進制計算決策融入了動態的人類理解和創意的幻影,以至于(如果不考慮哲學家的說法)看起來與真實事物極度類似。甚至這些系統的創造者也對其能力感到驚異。

該智能是廣泛且有適應性的。沒錯,大模型有可能會表現得像個白癡,但人類有時又何嘗不是。如果你的問題是誰在1625年獲得了諾貝爾物理學獎,它可能會回答伽利略、培根或開普勒,卻沒意識到首個獎項1901年才頒出。然而,它們有早期AI所不具備的適應能力。這也許是由于,在某種程度上,在把握繪畫、創意寫作、計算機編程等截然不同領域符號的規則之間有相似之處。這種廣度意味著大模型可以有很多應用領域,包括通過預測蛋白質如何3D折疊來幫助尋找新藥,從數據組中尋找有趣的表格,通過查閱大型數據庫來尋找開放性問題的能夠打開新的求知領域的答案。

這很令人興奮,并一定會帶來巨大的(大多數仍只能靠想象的)益處。但隨之而來的還有煩惱。人們會不可避免地恐懼,創造性強到令創造者都感到驚奇的AI系統可能會變壞。事實上,大模型離達到好萊塢鐘愛的那種有感知力的殺手機器人的程度還遠著呢。終結者們一般都很專注、有強迫癥,不了解自身行動的全面后果。大模型AI與之相比則很模糊。此外,人們還擔心,訓練這些模型要耗費大量的能源,以及由此產生的污染。然而,AI正在變得更加高效,它們在開發推動向可再生能源轉變的科技方面也可能發揮至關重要的作用。

人們更加深遠的擔憂在于,該由誰來控制這些大模型。訓練Google的PaLM這樣的超大型系統每次要耗費1000萬美元,并需要獲取大量的數據——算力和數據都是越多越好。這帶來了科技集中于少量科技公司或政府手中的潛在威脅。

如果這樣的話,訓練數據能夠使世界的偏見更加根深蒂固,而且是以特別令人窒息和不快的方式。你愿意相信一個對于真實世界的全部感知都來自于上網的十歲小孩嗎?各國政府訓練的AI會被用于國際意識形態爭端嗎?那些在線上沒有得到充分展現文化的未來會怎樣?

此外還有可獲得性的問題。目前為止,最大的大模型都是非公開的,以防止其被用于制造假新聞等惡意目的。初創企業OpenAI設計了一款名為DALL-E 2的模型,試圖禁止其制作暴力或色情的圖像。公司害怕濫用是對的,但這些模型越強大,限制其使用就更會制造新的特權階層。自我監管不太可能解決該難題。

多年以來,人們都在說AI驅動的自動化對從事重復、日常工作的人構成威脅,藝術家、作家和程序員會更安全。大模型對這種假設提出了挑戰。但它們也顯示,AI如何能夠被作為提升生產力的助手來使用。這種機器智能不能夠復制人類,但卻提供了完全不一樣的東西。如果處理得當,它將很可能會輔助人類而不是篡權。

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

在某種意義上,計算機其實就相當于當年推動工業革命的動力織布機和蒸汽機的延續。

編譯|來咖智庫 豆豆

編輯|龔巖

最近 43 歲的谷歌研究員上交了一份長達21頁紙的調查報告,試圖讓高層相信AI已經產生了自我意識,結果被高層勒令回家,帶薪休假。這件事在科技圈引發了激烈的討論。有專家指出,這不過是語言模型罷了,并不意味著人工智能真的產生了意識。想象有這樣一臺計算機,它能夠用更好的措辭來完成你的句子;或使用一段旋律作曲,聽上去就像是你自己寫的(即便你永遠也不會去寫);或創造數百行計算機代碼來解決問題,使你能夠專心于其他更難的工作。在某種意義上,計算機其實就相當于當年推動工業革命的動力織布機和蒸汽機的延續。但計算機也屬于一種新的類別的機器,因為它能夠捕捉語言、音樂和編程符號,并以看起來有創造性的方式應用。有點像人類自身。

能實現這些的“大模型”(Foundation Models)代表著人工智能(Artificial Intelligence,AI)領域的突破。它們也有望帶來革命,這次會影響到從前工業革命從未涉及的高級腦力勞動。前方的道路并不清晰,畢竟AI在以前也翻過車。但已經到了關注機器智能領域未來新事物的前景與挑戰的時候了。

在十年前崛起并于現在占據AI統治地位的深度學習(Deep Learning,DL)領域,大模型是其中取得的最新前沿進展。深度學習系統大體上基于人腦中的神經元網狀結構,會經歷數百萬甚至數十億文本、圖像或音頻等樣本的“訓練”。近年來,越來越大的深度學習系統的訓練時間和金錢成本暴漲,引發了人們對于該技術已經達到極限的擔憂。有些人開始擔憂“AI寒冬”的出現。但大模型顯示,通過建設更大、更復雜的深度學習系統,確實能夠持續解鎖令人驚嘆的新能力。沒有人知道其極限在哪里。

由此得到的模型是一種新型、有創意、非人類的智能。這些系統足夠成熟,既能夠深刻把握語言,又能夠有連貫性地打破規則。一條狗看不懂《紐約客》雜志的笑話,但AI卻能夠解釋其笑點在哪里。說實話,這一點甚至連有些人類讀者都做不到。

大模型有一些令人驚奇且有用的特性,其中最怪異的就是其“突創性”行為。也就是說,理解笑話的能力和根據情勢匹配諺語等技巧并非刻意設計的結果,而是取決于模型的規模和深度。就像是快速閃過的靜態圖像會給人在移動的感覺一樣,上萬億的二進制計算決策融入了動態的人類理解和創意的幻影,以至于(如果不考慮哲學家的說法)看起來與真實事物極度類似。甚至這些系統的創造者也對其能力感到驚異。

該智能是廣泛且有適應性的。沒錯,大模型有可能會表現得像個白癡,但人類有時又何嘗不是。如果你的問題是誰在1625年獲得了諾貝爾物理學獎,它可能會回答伽利略、培根或開普勒,卻沒意識到首個獎項1901年才頒出。然而,它們有早期AI所不具備的適應能力。這也許是由于,在某種程度上,在把握繪畫、創意寫作、計算機編程等截然不同領域符號的規則之間有相似之處。這種廣度意味著大模型可以有很多應用領域,包括通過預測蛋白質如何3D折疊來幫助尋找新藥,從數據組中尋找有趣的表格,通過查閱大型數據庫來尋找開放性問題的能夠打開新的求知領域的答案。

這很令人興奮,并一定會帶來巨大的(大多數仍只能靠想象的)益處。但隨之而來的還有煩惱。人們會不可避免地恐懼,創造性強到令創造者都感到驚奇的AI系統可能會變壞。事實上,大模型離達到好萊塢鐘愛的那種有感知力的殺手機器人的程度還遠著呢。終結者們一般都很專注、有強迫癥,不了解自身行動的全面后果。大模型AI與之相比則很模糊。此外,人們還擔心,訓練這些模型要耗費大量的能源,以及由此產生的污染。然而,AI正在變得更加高效,它們在開發推動向可再生能源轉變的科技方面也可能發揮至關重要的作用。

人們更加深遠的擔憂在于,該由誰來控制這些大模型。訓練Google的PaLM這樣的超大型系統每次要耗費1000萬美元,并需要獲取大量的數據——算力和數據都是越多越好。這帶來了科技集中于少量科技公司或政府手中的潛在威脅。

如果這樣的話,訓練數據能夠使世界的偏見更加根深蒂固,而且是以特別令人窒息和不快的方式。你愿意相信一個對于真實世界的全部感知都來自于上網的十歲小孩嗎?各國政府訓練的AI會被用于國際意識形態爭端嗎?那些在線上沒有得到充分展現文化的未來會怎樣?

此外還有可獲得性的問題。目前為止,最大的大模型都是非公開的,以防止其被用于制造假新聞等惡意目的。初創企業OpenAI設計了一款名為DALL-E 2的模型,試圖禁止其制作暴力或色情的圖像。公司害怕濫用是對的,但這些模型越強大,限制其使用就更會制造新的特權階層。自我監管不太可能解決該難題。

多年以來,人們都在說AI驅動的自動化對從事重復、日常工作的人構成威脅,藝術家、作家和程序員會更安全。大模型對這種假設提出了挑戰。但它們也顯示,AI如何能夠被作為提升生產力的助手來使用。這種機器智能不能夠復制人類,但卻提供了完全不一樣的東西。如果處理得當,它將很可能會輔助人類而不是篡權。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 封开县| 柳林县| 龙门县| 萍乡市| 南华县| 丰城市| 宁晋县| 嵊泗县| 淅川县| 甘德县| 商洛市| 英吉沙县| 三亚市| 商南县| 铜梁县| 西吉县| 合水县| 奎屯市| 佛学| 恭城| 河西区| 印江| 芦山县| 随州市| 长治市| SHOW| 桓台县| 崇义县| 太和县| 富锦市| 财经| 贵阳市| 兴山县| 淮北市| 临猗县| 东兰县| 招远市| 高碑店市| 正宁县| 黄山市| 华蓥市|