簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

AI“統治”世界,需要分幾步走?

掃一掃下載界面新聞APP

AI“統治”世界,需要分幾步走?

大模型真的威脅人類了嗎?

圖片來源:界面新聞 匡達

文|鋅財經 孫鵬越

編輯|大風

你敢相信?ChatGPT已經通過圖靈測試了!

甚至不是最新的GPT-4o,老版本GPT-3.5和GPT-4就已經打破人類和AI的最后一層限制。

“圖靈測試”由計算機科學家艾倫?圖靈在1950年提出。他將人工智能給出了一個完全可操作的定義:如果一臺機器輸出的內容和人類大腦別無二致的話,那么我們就沒有理由堅持認為這臺機器不是在“思考”。

“圖靈測試”和“機器人三定律”,一直被人類世界視為保護人類的最后屏障。

就連“AI講師”周鴻祎,都在最近的社交平臺上大談AI滅世論,將AI焦慮拉到極致。

在2024年,以OpenAI為首的大模型公司,真的能打開毀滅人類社會的潘多拉魔盒嗎?

“AI滅世論”引發(fā)焦慮

從上世紀開始,通過圖靈測試就成為人類在AI領域為之奮斗的里程碑目標。

可真的有AI通過測試后,人類的惶恐卻大過于驚喜。

加州大學研究人員招募了500名參與者,讓他們與四位“對話者”進行五分鐘的交流,這四位“對話者”分別是:真人、上世紀60年代的初代聊天機器人ELIZA、GPT-3.5和GPT-4。

參與者在對話結束后,需判斷對方是人還是機器。

評估對象通過率(左) 評估者信任度(右)

結果顯示,真人被正確辨認的比例則為67%;ELIZA只有22%;GPT-4和GPT-3.5則高達54%、50%。

這項測試無疑是非常可怕,真人和GPT-4的差距僅有12%!

前OpenAI“超級對齊團隊”成員利奧波德·阿申布倫納(Leopold Aschenbrenner),曾在在社交平臺披露出來的一份長達165頁的PDF文檔,對外界發(fā)出警告。

阿申布倫納表示,AI在過去10年深度學習的進步速度非常驚人。僅僅10年前,AI識別簡單圖像的能力就已經是革命性的。但如今,人類不斷嘗試提出新穎的、更難的測試,但每個新的基準測試都很快被AI所破解。

過去,破解廣泛使用的基準測試,AI需要數十年的時間,而現在只要幾個月。

而圖靈測試雖然名氣大,但從問題深度和難度上,并不如當下最困難的基準測試,也就是類似GPQA的測試,內容是博士級別的生物、化學和物理問題。

阿申布倫納估計,GPT-4進化到GPT-4o,或者到GPT-5模型迭代后,這一基準測試也將作廢。

為什么人類設置的難題,會這么快被AI所破解?原因就是,AI學習能力真的太快了!

2019年發(fā)布的GPT-2模型,智力水平僅僅于學齡前兒童相仿,只能簡單串起一些看似合理的句子,但是卻無法從1數到5,也無法完成總結類任務;

2020年發(fā)布的GPT-3模型,智力水平大致達到了小學生的水平,能生成篇幅更長的模型,并能完成一些基礎的算術任務和語法糾錯;

2022年發(fā)布的GPT-4模型,智力水平就能與較為聰明的高中生相似,能編寫復雜的代碼并進行迭代調試,還能完成高中數學競賽題。

等到2024年,更先進GPT-4o,更是完成了對GPT-4的全方位超越。

相比較人類,正常人類從小學提升到初中,需要六年的時間;初中提升到高中,又需要三年的事件。

而AI的進化,則是兩年一個臺階的越級進化,遠遠超過正常人類的水平。

超級人工智能時代

“在2027年,我們就有極大可能實現AGI(超級人工智能)。”

這是阿申布倫納的推斷,他的數據支撐是GPT-2到GPT-4的模型迭代趨勢。

從2019-2022年的4年時間里,ChatGPT算力和算法效率都在以每年0.5個數量級(1個數量級=10倍)的速度發(fā)展。

再加上可能出現的釋放模型性能的技術突破,等到了2027年,AGI(超級人工智能)時代就會降臨,AI工程師完全可以取代人類工程師的所有工作。

AI的“超級進化”,背后是算力與資源的巨額消耗。

AI研究機構Epoch AI評估報告顯示,GPT-4訓練使用的原始計算量比GPT-2多約3000-10000倍。

這無疑是個可怕的數據,據阿申布倫納估計,到2027年底,將會出現2個數量級的算力增長,用電量相當于美國一個中小型的州的用電量。

也就是說,要拿一個省份的用電量,來支撐起一個AI大模型的日常訓練,這還是GPT-4的水準,還遠不到AGI(超級人工智能)的標準。

周鴻祎對阿申布倫納的言論并不認同,甚至有些“不切實際,更像是科幻小說”。

他表示,如果一個AGI(超級人工智能)的誕生就需要多個省份的電力資源,那么有10個以上的AGI,就能把整個地球的資源抽干殆盡。

周鴻祎給出了自己對AI的擔憂,他認為如果在未來誕生出一個AGI,它就會取代人類工程師負責對AI大模型的開發(fā),那么就會有一個24小時日以繼夜工作、讓算法和技術突破的更快,形成極為夸張的正循環(huán)。

在“機器人改造機器人”“機器人改造算法”的模式下,AI的智力水平會從人類進化到超人,那么就會上演“硅基生物VS碳基生物”的好萊塢戲碼。

雖然周鴻祎反對阿申布倫納的言論,但同樣認為智能大爆炸之后的“超級智能時代”,將是人類歷史上最動蕩、最危險、最緊張的時期。

這并不是周鴻祎在社交平臺上,第一次對AI領域充斥著憂慮。早在2023年年初,GPT-4剛剛火遍全球的時候,周鴻祎就已經表達過對AI安全的擔憂。

周鴻祎表示:原來的人工智能給人的感覺像“人工智障”,雖然能做一些技術比如人臉識別、語音識別,但并不能理解你說的什么。但是ChatGPT模型不僅能夠通過圖靈試驗,而且它有自己的人設、自己的觀點,按照進化速度、摩爾定律,如果進一步訓練下去,ChatGPT也許就能實現自我意識的突破。

一旦自我意識突破,它就有可能控制全網的電腦,就會認為比人類高明很多。在它眼里,人類這個物種其實無論從存儲、算力、反應能力、知識面上比它差太遠,它就能反過來奴役人類,科幻正離現實越來越近。

作為360的創(chuàng)始人,AI安全問題,周鴻祎的顧慮更多。

無人在意的AI安全

OpenAI作為AI時代的領頭羊,面對AI安全的全球輿論,它做了什么嗎?

顯然是沒有的,甚至OpenAI還在今年解散了負責AI安全的“超級對齊團隊”。

在去年,OpenAI首席科學家伊利亞·蘇斯克沃就因為AI安全問題,對CEO山姆·奧特曼進行彈劾,但最終還是山姆·奧特曼笑到最后,伊利亞·蘇斯克沃被趕出公司。

伊利亞·蘇斯克沃離開OpenAI后,在6月20日宣布成立新公司SSI(超級安全智能Safe SuperIntelligence)。

最在意AI安全的伊利亞·蘇斯克沃離職,上文提到了利奧波德·阿申布倫納就以“泄密”為由,被OpenAI同樣趕出了公司。

這也是他在社交平臺發(fā)布165頁的文檔,曝光OpenAI的原因。

甚至,曝光OpenAI的吹哨人,還不止阿申布倫納一人,在上個月,有一批OpenAI的前員工和現員工聯合起來,公開發(fā)表了一封聯名信,聲明OpenAI缺少監(jiān)管,人工智能系統已經能對人類社會造成嚴重危害,未來甚至能“滅絕人類”。

雖然“滅絕人類”這個說法過于驚悚,但在解散超級對齊團隊之后,OpenAI GPT商店充斥著垃圾郵件,并違反平臺的服務條款從YouTube抓取數據。

看到AI安全在OpenAI的地位,越來越多的安全研究人員,選擇另謀高就。

艾隆·馬斯克也忍不住抨擊山姆·奧特曼:“安全并不是OpenAI的首要任務。”

對于外界的批評,山姆·奧特曼置若罔聞,他已經把全部精力用于推動OpenAI徹底轉向營利實體,不再由非營利性組織控制。

如果OpenAI轉型為營利組織后,有限合伙人每年利潤分紅的限制就不復存在了,巨額回報激勵能夠進一步擴大合伙人范圍,也有利于OpenAI走向IPO。

也就是說,估值高達860億美元的OpenAI(約6244億人民幣),將能給山姆·奧特曼本人帶來更多的財富。

在Dollar面前,山姆·奧特曼毅然決然的放棄了AI安全。

本文為轉載內容,授權事宜請聯系原著作權人。

OpenAI

  • OpenAI接近敲定400億美元新融資,預計今年收入將增長兩倍
  • 科技早報 | 谷歌發(fā)布新一代推理模型反擊OpenAI;寶馬與阿里達成AI領域戰(zhàn)略

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AI“統治”世界,需要分幾步走?

大模型真的威脅人類了嗎?

圖片來源:界面新聞 匡達

文|鋅財經 孫鵬越

編輯|大風

你敢相信?ChatGPT已經通過圖靈測試了!

甚至不是最新的GPT-4o,老版本GPT-3.5和GPT-4就已經打破人類和AI的最后一層限制。

“圖靈測試”由計算機科學家艾倫?圖靈在1950年提出。他將人工智能給出了一個完全可操作的定義:如果一臺機器輸出的內容和人類大腦別無二致的話,那么我們就沒有理由堅持認為這臺機器不是在“思考”。

“圖靈測試”和“機器人三定律”,一直被人類世界視為保護人類的最后屏障。

就連“AI講師”周鴻祎,都在最近的社交平臺上大談AI滅世論,將AI焦慮拉到極致。

在2024年,以OpenAI為首的大模型公司,真的能打開毀滅人類社會的潘多拉魔盒嗎?

“AI滅世論”引發(fā)焦慮

從上世紀開始,通過圖靈測試就成為人類在AI領域為之奮斗的里程碑目標。

可真的有AI通過測試后,人類的惶恐卻大過于驚喜。

加州大學研究人員招募了500名參與者,讓他們與四位“對話者”進行五分鐘的交流,這四位“對話者”分別是:真人、上世紀60年代的初代聊天機器人ELIZA、GPT-3.5和GPT-4。

參與者在對話結束后,需判斷對方是人還是機器。

評估對象通過率(左) 評估者信任度(右)

結果顯示,真人被正確辨認的比例則為67%;ELIZA只有22%;GPT-4和GPT-3.5則高達54%、50%。

這項測試無疑是非常可怕,真人和GPT-4的差距僅有12%!

前OpenAI“超級對齊團隊”成員利奧波德·阿申布倫納(Leopold Aschenbrenner),曾在在社交平臺披露出來的一份長達165頁的PDF文檔,對外界發(fā)出警告。

阿申布倫納表示,AI在過去10年深度學習的進步速度非常驚人。僅僅10年前,AI識別簡單圖像的能力就已經是革命性的。但如今,人類不斷嘗試提出新穎的、更難的測試,但每個新的基準測試都很快被AI所破解。

過去,破解廣泛使用的基準測試,AI需要數十年的時間,而現在只要幾個月。

而圖靈測試雖然名氣大,但從問題深度和難度上,并不如當下最困難的基準測試,也就是類似GPQA的測試,內容是博士級別的生物、化學和物理問題。

阿申布倫納估計,GPT-4進化到GPT-4o,或者到GPT-5模型迭代后,這一基準測試也將作廢。

為什么人類設置的難題,會這么快被AI所破解?原因就是,AI學習能力真的太快了!

2019年發(fā)布的GPT-2模型,智力水平僅僅于學齡前兒童相仿,只能簡單串起一些看似合理的句子,但是卻無法從1數到5,也無法完成總結類任務;

2020年發(fā)布的GPT-3模型,智力水平大致達到了小學生的水平,能生成篇幅更長的模型,并能完成一些基礎的算術任務和語法糾錯;

2022年發(fā)布的GPT-4模型,智力水平就能與較為聰明的高中生相似,能編寫復雜的代碼并進行迭代調試,還能完成高中數學競賽題。

等到2024年,更先進GPT-4o,更是完成了對GPT-4的全方位超越。

相比較人類,正常人類從小學提升到初中,需要六年的時間;初中提升到高中,又需要三年的事件。

而AI的進化,則是兩年一個臺階的越級進化,遠遠超過正常人類的水平。

超級人工智能時代

“在2027年,我們就有極大可能實現AGI(超級人工智能)。”

這是阿申布倫納的推斷,他的數據支撐是GPT-2到GPT-4的模型迭代趨勢。

從2019-2022年的4年時間里,ChatGPT算力和算法效率都在以每年0.5個數量級(1個數量級=10倍)的速度發(fā)展。

再加上可能出現的釋放模型性能的技術突破,等到了2027年,AGI(超級人工智能)時代就會降臨,AI工程師完全可以取代人類工程師的所有工作。

AI的“超級進化”,背后是算力與資源的巨額消耗。

AI研究機構Epoch AI評估報告顯示,GPT-4訓練使用的原始計算量比GPT-2多約3000-10000倍。

這無疑是個可怕的數據,據阿申布倫納估計,到2027年底,將會出現2個數量級的算力增長,用電量相當于美國一個中小型的州的用電量。

也就是說,要拿一個省份的用電量,來支撐起一個AI大模型的日常訓練,這還是GPT-4的水準,還遠不到AGI(超級人工智能)的標準。

周鴻祎對阿申布倫納的言論并不認同,甚至有些“不切實際,更像是科幻小說”。

他表示,如果一個AGI(超級人工智能)的誕生就需要多個省份的電力資源,那么有10個以上的AGI,就能把整個地球的資源抽干殆盡。

周鴻祎給出了自己對AI的擔憂,他認為如果在未來誕生出一個AGI,它就會取代人類工程師負責對AI大模型的開發(fā),那么就會有一個24小時日以繼夜工作、讓算法和技術突破的更快,形成極為夸張的正循環(huán)。

在“機器人改造機器人”“機器人改造算法”的模式下,AI的智力水平會從人類進化到超人,那么就會上演“硅基生物VS碳基生物”的好萊塢戲碼。

雖然周鴻祎反對阿申布倫納的言論,但同樣認為智能大爆炸之后的“超級智能時代”,將是人類歷史上最動蕩、最危險、最緊張的時期。

這并不是周鴻祎在社交平臺上,第一次對AI領域充斥著憂慮。早在2023年年初,GPT-4剛剛火遍全球的時候,周鴻祎就已經表達過對AI安全的擔憂。

周鴻祎表示:原來的人工智能給人的感覺像“人工智障”,雖然能做一些技術比如人臉識別、語音識別,但并不能理解你說的什么。但是ChatGPT模型不僅能夠通過圖靈試驗,而且它有自己的人設、自己的觀點,按照進化速度、摩爾定律,如果進一步訓練下去,ChatGPT也許就能實現自我意識的突破。

一旦自我意識突破,它就有可能控制全網的電腦,就會認為比人類高明很多。在它眼里,人類這個物種其實無論從存儲、算力、反應能力、知識面上比它差太遠,它就能反過來奴役人類,科幻正離現實越來越近。

作為360的創(chuàng)始人,AI安全問題,周鴻祎的顧慮更多。

無人在意的AI安全

OpenAI作為AI時代的領頭羊,面對AI安全的全球輿論,它做了什么嗎?

顯然是沒有的,甚至OpenAI還在今年解散了負責AI安全的“超級對齊團隊”。

在去年,OpenAI首席科學家伊利亞·蘇斯克沃就因為AI安全問題,對CEO山姆·奧特曼進行彈劾,但最終還是山姆·奧特曼笑到最后,伊利亞·蘇斯克沃被趕出公司。

伊利亞·蘇斯克沃離開OpenAI后,在6月20日宣布成立新公司SSI(超級安全智能Safe SuperIntelligence)。

最在意AI安全的伊利亞·蘇斯克沃離職,上文提到了利奧波德·阿申布倫納就以“泄密”為由,被OpenAI同樣趕出了公司。

這也是他在社交平臺發(fā)布165頁的文檔,曝光OpenAI的原因。

甚至,曝光OpenAI的吹哨人,還不止阿申布倫納一人,在上個月,有一批OpenAI的前員工和現員工聯合起來,公開發(fā)表了一封聯名信,聲明OpenAI缺少監(jiān)管,人工智能系統已經能對人類社會造成嚴重危害,未來甚至能“滅絕人類”。

雖然“滅絕人類”這個說法過于驚悚,但在解散超級對齊團隊之后,OpenAI GPT商店充斥著垃圾郵件,并違反平臺的服務條款從YouTube抓取數據。

看到AI安全在OpenAI的地位,越來越多的安全研究人員,選擇另謀高就。

艾隆·馬斯克也忍不住抨擊山姆·奧特曼:“安全并不是OpenAI的首要任務。”

對于外界的批評,山姆·奧特曼置若罔聞,他已經把全部精力用于推動OpenAI徹底轉向營利實體,不再由非營利性組織控制。

如果OpenAI轉型為營利組織后,有限合伙人每年利潤分紅的限制就不復存在了,巨額回報激勵能夠進一步擴大合伙人范圍,也有利于OpenAI走向IPO。

也就是說,估值高達860億美元的OpenAI(約6244億人民幣),將能給山姆·奧特曼本人帶來更多的財富。

在Dollar面前,山姆·奧特曼毅然決然的放棄了AI安全。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 寻乌县| 马边| 垣曲县| 新绛县| 淳安县| 永仁县| 平阴县| 彩票| 惠水县| 南开区| 长白| 云林县| 沧州市| 牙克石市| 龙岩市| 余江县| 邓州市| 泗阳县| 九江县| 南靖县| 慈溪市| 收藏| 玛曲县| 荥经县| 怀集县| 南阳市| 汽车| 收藏| 凤山县| 东乡县| 华池县| 定安县| 光山县| 乌拉特后旗| 灯塔市| 牟定县| 信丰县| 福泉市| 陈巴尔虎旗| 南召县| 屏东县|