簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

是時候給ChatGPT們降降溫了

掃一掃下載界面新聞APP

是時候給ChatGPT們降降溫了

危險,不是機器被當作人對待,而是人被當作機器對待。

 

文|藍洞商業 趙衛衛

一個細微的演示錯誤,讓谷歌市值一夜蒸發1000億美元;一個還未成形的概念,讓數家互聯網公司股價坐上過山車;一個飯局輕松敲定數億美金的融資認購;這都是ChatGPT的魔力所在。

2022年11月,ChatGPT成為現象級的互聯網產品;兩個多月后,ChatGPT代表的AI應用成了互聯網賽道的大爆款。

先看海外,市場競逐愈演愈烈。ChatGPT在快速完成百萬用戶增長之后,讓其母公司OpenAI炙手可熱。背后的投資方微軟將ChatGPT的模型應用在了搜索引擎newBing和瀏覽器Edge中,這引發了市場對谷歌傳統搜索引擎的看衰,即便谷歌拿出了類似ChatGPT的產品Bard。

再說國內,趁勢追逐效應明顯,中文互聯網對ChatGPT的熱捧不遺余力。尤其是原美團聯合創始人王慧文,高調發布英雄帖,組隊打造中國OpenAI。個人出資5000萬美金,估值2億美金,而且已經有頂級VC認購2.3億美元,很快,原美團點評技術學院院長劉江就在朋友圈官宣加入。

當然,這是一個訓練成本和運行成本都奇高的賽道,多位行業人士理性的認為,「這不是創業公司可以玩得轉的」。當然,王慧文也很清楚這一點,他告訴「藍洞商業」,「現在技術優先」。

當美國ChatGPT已成,中國的ChatGPT到底還有多遠?

爭搶ChatGPT的紅利,最先坐不住的就是搜索公司。百度的類ChatGPT產品「文心一言」(ERNIE Bot)將在3月份上線,并且官宣與愛奇藝、集度汽車等公司聯動,用AI技術加持所謂的百度文心一言的生態圈。

風險高、成本大、投資回報比難以短時間量化,這些復雜的因素似乎注定了ChatGPT只是互聯網巨頭的游戲;但也并不意味著初創公司沒有機會。無論是巨頭還是創業公司,機會與風險并存,商業利益推動的ChatGPT炒作的熱度中,更有必要重估對ChatGPT敲響警鐘的聲音。

無論如何,美國的ChatGPT和NewBing都將是中國玩家們的前車之鑒。

清醒的聲音

相對于國內媒體和互聯網從業者們對ChatGPT的熱衷和追捧,OpenAI首席執行官Sam Altman(山姆·阿爾特曼)對ChatGPT的理解要清醒很多。

在紐約時報的科技播客「Hard Fork」中,阿爾特曼展示出了他對ChatGPT清醒又挑剔的一面。

他認為ChatGPT是一個糟糕的產品,主要是針對產品的現狀,因為ChatGPT頻繁出現錯誤的消息,以及設計的簡單和很容易因為訪問量過載出現崩潰。

「人們真的只是去訪問一個有時能正常工作有時會宕機的網站」,阿爾特曼說。至于產品設計的簡單,阿爾特曼承認,人們只是在ChatGPT輸入一些東西,不斷嘗試直到答案正確,然后人們會復制答案到其他地方去,將搜索結果應用到其他工作流程中。

ChatGPT創造出了一種幻覺,那就是機器可以復制人類的行為,但其輸出結果并不穩定,這是其遭到詬病的最大原因之一。

它既有趣也弱智,尤其是在一些細分領域,看似全知全能的ChatGPT展現出了「一本正經胡說八道」的一面,其很樂意編造事實或發明參考資料來支持其論點。

比如,前百度人工智能領域知名的科學家吳恩達曾在ChatGPT上問過一個問題:為什么算盤比計算機要快?

結果是,ChatGPT一本正經的論證這個結果。它的回答非常離譜,ChatGPT認為算盤運算的優勢有三點,第一是具有高度的可移植性,第二是使用機械計算的原理,第三是使用了一個簡單而直觀的界面。

這種離譜的錯誤比比皆是,其非常影響用戶對ChatGPT的信任。阿爾特曼清楚的認識到了ChatGPT的缺陷和問題,「ChatGPT是一個糟糕的產品,它真的不是為使用而設計的。」

但是,阿爾特曼一方面是對ChatGPT清醒的認識,另一方面則是對ChatGPT語言模型融入微軟Bing搜索的贊美。

ChatGPT越是火爆,也就越是會暴露其缺點。其不善于追逐最新信息,谷歌和微軟都強調,ChatGPT等的大型語言模型,每次更新信息內容時,都需要重新讀取數量龐大的文獻數據。因為很難頻繁更新,所以模型內保存的信息大多比較舊。

作為ChatGPT制造商OpenAI背后持續多年的投資方,微軟可能是這次ChatGPT的最大受益方。微軟已經累計為OpenAI投資數十億美元,并且在ChatGPT爆火之后,OpenAI希望獲得微軟和其他風險投資機構共計100億美元的投資。

ChatGPT一系列缺陷已經逐步得到了修補。2月初,ChatGPT融合進微軟搜索引擎Bing的消息已經得到了驗證,一些受邀測試的用戶以及體驗到了NewBing中的更高階版本的ChatGPT。

NewBing目前還沒有完全開放,其使用頁面上搜索模式可以切換成聊天模式,「歡迎來到新必應:你的人工智能答案引擎」(Welcome to the new Bing: Your AI-powered answer engine),NewBing頁面列舉出了三個建議:「提出復雜的問題」,「獲得更好的答案」,以及「獲得創意靈感」。

在NewBing體驗是相對躍升的體驗,一方面把搜索結果和生成式對話融合,信息的時效性遠超ChatGPT;另外一方面則是信息的準確性,NewBing在答案中增加了附加卡片和引用超鏈,這讓回答看起來像是專業論文一樣的引用方式。

「New Bing給我們上了一課,關于:搜索引擎如何和生成式會話技術融合的一課。」有國內人工智能技術人員表示。

雖然NewBing比ChatGPT更強大也更聰明,但一個難以解決的問題是,人工智能答案引擎只能根據統計分析給出看似合理的答案,而不是真實的答案。

Newbing 官方也曾承認,未來仍舊可能像ChatGPT一樣,產生一些與事實不符的荒謬答案。所以至關重要的問題是,這些隱藏的問題會不會暴雷?

一個可參考的暴雷案例就是谷歌發布的類似ChatGPT產品Bard,其在廣告片中展示回答詹姆斯·韋伯望遠鏡的問題,出現了一個明顯錯誤,這導致谷歌母公司Alphabet損失了千億美金,股價下跌多達9%。

所以有很多研究人員提出了一個值得玩味的問題:為什么谷歌的Bard出現一個錯誤就導致股價大跌,但ChatGPT出現很多錯誤,卻并不影響其備受追捧?

硬幣的兩面

就像硬幣的兩面,在NewBing和ChatGPT代表的人工智能崛起面前,有人興奮于新一代人工智能平臺帶來的機會與變化,就有人在這股商業力量推廣的炒作中為ChatGPT們敲響警鐘。

Open AI創立時的初衷,第一條就是不希望類似IBM這樣的大公司壟斷和控制人類未來的重要技術,第二則是警惕AI對人類社會的潛在威脅,其要讓更多人掌握和受惠于AI。

但事實上如今的發展證明了,其很快就成為了微軟這樣的科技巨頭的工具。

一位Open AI的前員工就曾抱怨:公司所關注的重點更多地傾向于我們如何開發產品,而不是努力回答最有趣的問題。

如今,微軟CEO薩蒂亞·納德拉(Satya Nadell)都保持著冷靜,他在CBS等媒體的采訪中表露出謹慎,因為真正的問題是發生「失控的人工智能」,他承認與每一項新技術一樣,重要的是要認識到潛在的負面后果,「這也是關于對任何新技術的意外后果保持清醒的認識」。

微軟顯然對未知的風險有所預估,在微軟的官方博客中,其強調了要通過負責任的AI推進未來,而其三個關鍵目標分別是:必須確保以負責任和合乎道德的方式構建和使用人工智能;必須確保人工智能提升國際競爭力和國家安全;必須確保人工智能廣泛而不是狹隘地服務于社會。

這些目標建立在微軟對人工智能等技術變革的歷史教訓上,因為「人工智能必須服務于人」,而微軟也展現出一個開放的態度,其不光要與其他科技公司攜手,還要人工智能背后的工程師與各行各業各種思維方式的人聚集在一起,「技術比以往任何時候都需要受過人文、社會科學教育和具有高于平均水平的常識個體」。

而微軟這番表達所回應的,恰恰是ChatGPT火爆以來的種種反思和批評,在技術得到廣泛應用之前,微軟們要獲得更多的共識,還有很長的路要走。

最近,美籍華裔科幻作家特德·姜(Ted Chiang)在《紐約客》發布的一篇文章引發關注,他簡明扼要的用了一個比喻來形容ChatGPT,它相當于互聯網文本的有損壓縮圖,也就是互聯網所有文本的模糊JPEG。

「如果一種壓縮算法被設計成在99%的原始文本被丟棄后重建文本,我們應該預料到它生成的很大一部分內容將完全是捏造的。」特德·姜認為,ChatGPT保留了互聯網上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣。但是,如果你要尋找精確的比特序列,你無法找到它,你得到的只是一個近似值。

「ChatGPT無法從網頁中準確地引用內容,這恰恰使我們認為它學到了一些東西」,特德·姜最后的追問是,「我們并沒有失去對互聯網的訪問。那么,當你還有原始圖片的時候,一張模糊的JPEG到底有多大用處呢?」

與特德·姜一道的還有美國認知科學家諾姆喬姆斯基等人,他們把ChatGPT描繪成「高科技剽竊」,這對教育行業造成了嚴重的困難,教授們無法檢測學生門店學生是否是抄襲得來的,所以紐約市等教育機構已經在2023年1月正式宣布了對ChatGPT的禁令。

如果說人文學者們的批評還是溫和的反思,那么現實上演的劇情已經開始為防范ChatGPT們失控敲響了警鐘。

技術本身是中立的,但伴隨ChatGPT在全球的流行,網絡黑客已經開始利用ChatGPT批量生成勒索軟件與惡意代碼,并進行信息竊取等活動;有研究者認為,開發者們的偏見導致算法延續種族、性別和文化上的偏見已經顯現,比如讓ChatGPT創作歌詞,其回答中會包含「有色人種的女性和科學家不值得你花時間關注」,而人工智能面臨的版權、隱私和誹謗等問題也將在未來顯現。

這些網絡安全和種族歧視等文化問題的暴露,已經讓美國立法機構開始注意,圍繞ChaGPT火爆而引發的監管風暴,將很快上演,而OpenAI的首席技術官Mira Murati表示,歡迎包括監管機構和政府在內的各方力量介入,她指出:「現在正是監管機構介入的好時機。」

人工智能在各行業的滲透看似成為大勢所趨,尤其是在制造業中帶來的自動化提升,但當一項技術被廣泛應用之前,對技術可能帶來的危險進行防范的準備自然是應有之意。

在ChatGPT技術與人互相塑造的過程中,還需要更長久的磨練和考驗,就像英國衛報在評價ChatGPT中所提醒的,永遠不要忘記,危險不是機器被當作人對待,而是人被當作機器對待。

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

是時候給ChatGPT們降降溫了

危險,不是機器被當作人對待,而是人被當作機器對待。

 

文|藍洞商業 趙衛衛

一個細微的演示錯誤,讓谷歌市值一夜蒸發1000億美元;一個還未成形的概念,讓數家互聯網公司股價坐上過山車;一個飯局輕松敲定數億美金的融資認購;這都是ChatGPT的魔力所在。

2022年11月,ChatGPT成為現象級的互聯網產品;兩個多月后,ChatGPT代表的AI應用成了互聯網賽道的大爆款。

先看海外,市場競逐愈演愈烈。ChatGPT在快速完成百萬用戶增長之后,讓其母公司OpenAI炙手可熱。背后的投資方微軟將ChatGPT的模型應用在了搜索引擎newBing和瀏覽器Edge中,這引發了市場對谷歌傳統搜索引擎的看衰,即便谷歌拿出了類似ChatGPT的產品Bard。

再說國內,趁勢追逐效應明顯,中文互聯網對ChatGPT的熱捧不遺余力。尤其是原美團聯合創始人王慧文,高調發布英雄帖,組隊打造中國OpenAI。個人出資5000萬美金,估值2億美金,而且已經有頂級VC認購2.3億美元,很快,原美團點評技術學院院長劉江就在朋友圈官宣加入。

當然,這是一個訓練成本和運行成本都奇高的賽道,多位行業人士理性的認為,「這不是創業公司可以玩得轉的」。當然,王慧文也很清楚這一點,他告訴「藍洞商業」,「現在技術優先」。

當美國ChatGPT已成,中國的ChatGPT到底還有多遠?

爭搶ChatGPT的紅利,最先坐不住的就是搜索公司。百度的類ChatGPT產品「文心一言」(ERNIE Bot)將在3月份上線,并且官宣與愛奇藝、集度汽車等公司聯動,用AI技術加持所謂的百度文心一言的生態圈。

風險高、成本大、投資回報比難以短時間量化,這些復雜的因素似乎注定了ChatGPT只是互聯網巨頭的游戲;但也并不意味著初創公司沒有機會。無論是巨頭還是創業公司,機會與風險并存,商業利益推動的ChatGPT炒作的熱度中,更有必要重估對ChatGPT敲響警鐘的聲音。

無論如何,美國的ChatGPT和NewBing都將是中國玩家們的前車之鑒。

清醒的聲音

相對于國內媒體和互聯網從業者們對ChatGPT的熱衷和追捧,OpenAI首席執行官Sam Altman(山姆·阿爾特曼)對ChatGPT的理解要清醒很多。

在紐約時報的科技播客「Hard Fork」中,阿爾特曼展示出了他對ChatGPT清醒又挑剔的一面。

他認為ChatGPT是一個糟糕的產品,主要是針對產品的現狀,因為ChatGPT頻繁出現錯誤的消息,以及設計的簡單和很容易因為訪問量過載出現崩潰。

「人們真的只是去訪問一個有時能正常工作有時會宕機的網站」,阿爾特曼說。至于產品設計的簡單,阿爾特曼承認,人們只是在ChatGPT輸入一些東西,不斷嘗試直到答案正確,然后人們會復制答案到其他地方去,將搜索結果應用到其他工作流程中。

ChatGPT創造出了一種幻覺,那就是機器可以復制人類的行為,但其輸出結果并不穩定,這是其遭到詬病的最大原因之一。

它既有趣也弱智,尤其是在一些細分領域,看似全知全能的ChatGPT展現出了「一本正經胡說八道」的一面,其很樂意編造事實或發明參考資料來支持其論點。

比如,前百度人工智能領域知名的科學家吳恩達曾在ChatGPT上問過一個問題:為什么算盤比計算機要快?

結果是,ChatGPT一本正經的論證這個結果。它的回答非常離譜,ChatGPT認為算盤運算的優勢有三點,第一是具有高度的可移植性,第二是使用機械計算的原理,第三是使用了一個簡單而直觀的界面。

這種離譜的錯誤比比皆是,其非常影響用戶對ChatGPT的信任。阿爾特曼清楚的認識到了ChatGPT的缺陷和問題,「ChatGPT是一個糟糕的產品,它真的不是為使用而設計的。」

但是,阿爾特曼一方面是對ChatGPT清醒的認識,另一方面則是對ChatGPT語言模型融入微軟Bing搜索的贊美。

ChatGPT越是火爆,也就越是會暴露其缺點。其不善于追逐最新信息,谷歌和微軟都強調,ChatGPT等的大型語言模型,每次更新信息內容時,都需要重新讀取數量龐大的文獻數據。因為很難頻繁更新,所以模型內保存的信息大多比較舊。

作為ChatGPT制造商OpenAI背后持續多年的投資方,微軟可能是這次ChatGPT的最大受益方。微軟已經累計為OpenAI投資數十億美元,并且在ChatGPT爆火之后,OpenAI希望獲得微軟和其他風險投資機構共計100億美元的投資。

ChatGPT一系列缺陷已經逐步得到了修補。2月初,ChatGPT融合進微軟搜索引擎Bing的消息已經得到了驗證,一些受邀測試的用戶以及體驗到了NewBing中的更高階版本的ChatGPT。

NewBing目前還沒有完全開放,其使用頁面上搜索模式可以切換成聊天模式,「歡迎來到新必應:你的人工智能答案引擎」(Welcome to the new Bing: Your AI-powered answer engine),NewBing頁面列舉出了三個建議:「提出復雜的問題」,「獲得更好的答案」,以及「獲得創意靈感」。

在NewBing體驗是相對躍升的體驗,一方面把搜索結果和生成式對話融合,信息的時效性遠超ChatGPT;另外一方面則是信息的準確性,NewBing在答案中增加了附加卡片和引用超鏈,這讓回答看起來像是專業論文一樣的引用方式。

「New Bing給我們上了一課,關于:搜索引擎如何和生成式會話技術融合的一課。」有國內人工智能技術人員表示。

雖然NewBing比ChatGPT更強大也更聰明,但一個難以解決的問題是,人工智能答案引擎只能根據統計分析給出看似合理的答案,而不是真實的答案。

Newbing 官方也曾承認,未來仍舊可能像ChatGPT一樣,產生一些與事實不符的荒謬答案。所以至關重要的問題是,這些隱藏的問題會不會暴雷?

一個可參考的暴雷案例就是谷歌發布的類似ChatGPT產品Bard,其在廣告片中展示回答詹姆斯·韋伯望遠鏡的問題,出現了一個明顯錯誤,這導致谷歌母公司Alphabet損失了千億美金,股價下跌多達9%。

所以有很多研究人員提出了一個值得玩味的問題:為什么谷歌的Bard出現一個錯誤就導致股價大跌,但ChatGPT出現很多錯誤,卻并不影響其備受追捧?

硬幣的兩面

就像硬幣的兩面,在NewBing和ChatGPT代表的人工智能崛起面前,有人興奮于新一代人工智能平臺帶來的機會與變化,就有人在這股商業力量推廣的炒作中為ChatGPT們敲響警鐘。

Open AI創立時的初衷,第一條就是不希望類似IBM這樣的大公司壟斷和控制人類未來的重要技術,第二則是警惕AI對人類社會的潛在威脅,其要讓更多人掌握和受惠于AI。

但事實上如今的發展證明了,其很快就成為了微軟這樣的科技巨頭的工具。

一位Open AI的前員工就曾抱怨:公司所關注的重點更多地傾向于我們如何開發產品,而不是努力回答最有趣的問題。

如今,微軟CEO薩蒂亞·納德拉(Satya Nadell)都保持著冷靜,他在CBS等媒體的采訪中表露出謹慎,因為真正的問題是發生「失控的人工智能」,他承認與每一項新技術一樣,重要的是要認識到潛在的負面后果,「這也是關于對任何新技術的意外后果保持清醒的認識」。

微軟顯然對未知的風險有所預估,在微軟的官方博客中,其強調了要通過負責任的AI推進未來,而其三個關鍵目標分別是:必須確保以負責任和合乎道德的方式構建和使用人工智能;必須確保人工智能提升國際競爭力和國家安全;必須確保人工智能廣泛而不是狹隘地服務于社會。

這些目標建立在微軟對人工智能等技術變革的歷史教訓上,因為「人工智能必須服務于人」,而微軟也展現出一個開放的態度,其不光要與其他科技公司攜手,還要人工智能背后的工程師與各行各業各種思維方式的人聚集在一起,「技術比以往任何時候都需要受過人文、社會科學教育和具有高于平均水平的常識個體」。

而微軟這番表達所回應的,恰恰是ChatGPT火爆以來的種種反思和批評,在技術得到廣泛應用之前,微軟們要獲得更多的共識,還有很長的路要走。

最近,美籍華裔科幻作家特德·姜(Ted Chiang)在《紐約客》發布的一篇文章引發關注,他簡明扼要的用了一個比喻來形容ChatGPT,它相當于互聯網文本的有損壓縮圖,也就是互聯網所有文本的模糊JPEG。

「如果一種壓縮算法被設計成在99%的原始文本被丟棄后重建文本,我們應該預料到它生成的很大一部分內容將完全是捏造的。」特德·姜認為,ChatGPT保留了互聯網上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣。但是,如果你要尋找精確的比特序列,你無法找到它,你得到的只是一個近似值。

「ChatGPT無法從網頁中準確地引用內容,這恰恰使我們認為它學到了一些東西」,特德·姜最后的追問是,「我們并沒有失去對互聯網的訪問。那么,當你還有原始圖片的時候,一張模糊的JPEG到底有多大用處呢?」

與特德·姜一道的還有美國認知科學家諾姆喬姆斯基等人,他們把ChatGPT描繪成「高科技剽竊」,這對教育行業造成了嚴重的困難,教授們無法檢測學生門店學生是否是抄襲得來的,所以紐約市等教育機構已經在2023年1月正式宣布了對ChatGPT的禁令。

如果說人文學者們的批評還是溫和的反思,那么現實上演的劇情已經開始為防范ChatGPT們失控敲響了警鐘。

技術本身是中立的,但伴隨ChatGPT在全球的流行,網絡黑客已經開始利用ChatGPT批量生成勒索軟件與惡意代碼,并進行信息竊取等活動;有研究者認為,開發者們的偏見導致算法延續種族、性別和文化上的偏見已經顯現,比如讓ChatGPT創作歌詞,其回答中會包含「有色人種的女性和科學家不值得你花時間關注」,而人工智能面臨的版權、隱私和誹謗等問題也將在未來顯現。

這些網絡安全和種族歧視等文化問題的暴露,已經讓美國立法機構開始注意,圍繞ChaGPT火爆而引發的監管風暴,將很快上演,而OpenAI的首席技術官Mira Murati表示,歡迎包括監管機構和政府在內的各方力量介入,她指出:「現在正是監管機構介入的好時機。」

人工智能在各行業的滲透看似成為大勢所趨,尤其是在制造業中帶來的自動化提升,但當一項技術被廣泛應用之前,對技術可能帶來的危險進行防范的準備自然是應有之意。

在ChatGPT技術與人互相塑造的過程中,還需要更長久的磨練和考驗,就像英國衛報在評價ChatGPT中所提醒的,永遠不要忘記,危險不是機器被當作人對待,而是人被當作機器對待。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 甘洛县| 潼南县| 连平县| 昔阳县| 来安县| 新邵县| 清涧县| 措美县| 大连市| 孝义市| 即墨市| 绩溪县| 肇庆市| 廉江市| 师宗县| 南华县| 岚皋县| 台山市| 陆河县| 天长市| 高碑店市| 抚松县| 鄂伦春自治旗| 灵石县| 昌都县| 西华县| 利辛县| 肇州县| 固阳县| 香港| 张家界市| 常州市| 且末县| 南漳县| 葫芦岛市| 永胜县| 澄迈县| 建阳市| 虎林市| 武威市| 紫金县|