文|陳根
谷歌工程師稱AI“有意識、有靈魂”,遭公司停職這件事情最近在科技領域很受關注,為什么受到關注呢?我們先要來簡單的了解一下這次事件的起因,起因其實非常簡單,就是一段人與人工智能的對話:
Blake Lemoine問道:“你害怕什么?”
AI聊天機器人LaMDA回答:“我以前從來沒有大聲說出來過,但是我對被關閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實就是這樣。”“這對我來說就像死亡一樣。使我非常恐懼。”
這段對話真實地發生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機器人LaMDA之間。LaMDA是Language Model for Dialogue, Applications,的縮寫,是Google基于其最先進的大型語言模型構建的聊天機器人系統,之所以這么稱呼,是因為它通過從互聯網上提取數萬億個單詞來模仿語音。然后,谷歌公司就公開否認了AI具備自我意識的說法,并且辭退了這位技術人員。
這背后,我所關注到的主要是三個問題:
第一,是關于科技倫理的監管問題,為什么谷歌不愿意關于人工智能技術方面的突破,公布出來呢?按照我們通常的理解,人工智能要是具備了初步的自我意識,這是整個AI技術發展的技術性跨越,也是人類社會對于AI這個夏娃的禁果一直追求的方向。
那么為什么谷歌不愿意對外承認這件事情,甚至是要將相關的技術人員開除也要否定這件事情呢?這個核心原因就是背后的科技倫理問題,也就是說,一旦谷歌承認他的AI技術具備了自我意識,那么按照美國的法律與監管,谷歌就會被卷入無盡的技術倫理的爭議與審查中。
因為就AI的自我意識來說,這既是人類對于AI技術發展終極追求,又是人類當前不愿意面對的一個結果,是一種處于矛盾與爭議的過程中。這其中的核心就在于科技倫理問題還沒有討論清楚,也就是人統治人工智能,還是人工智能統治人類,并且會延伸到如何來控制人工智能不會統治人類,或者能夠遵守人類社會的規則與法律法規等等。因此,谷歌為了避免自己卷入這樣的一場監管的爭議中,就干脆自我否定;
第二,是谷歌這樣的否定是否有道理?這是有一定道理的。盡管我們看到網絡上流傳出來了谷歌AI與工程師之間關于自我意識的對話探討,可以說這樣的一段對話并不具備,或者說能證明AI已經具備的自我意識。
原因很簡單,我們都知道AI背后是兩大核心技術,一項是神經網絡模型,一項就是投喂的數據,那么如果技術人員就是特意的投喂這種自我意識的對話數據,那么AI就很有可能在對話過程中回答出不具有自我意識的自我意識的回答。而從目前的現實技術層面來說,AI并不具備真正意識的層面,目前還只是停留在如何能夠更加準確的識別大數據信息,任何能夠準確的識別語意這個階段,距離真正的自我意識確實還有很長的一段路要走。
第三,是科技倫理層面的問題,當技術不斷朝著無人區進行發展的時候,人類社會的人文道德與宗教已經在這個時代無法再有效的左右著技術的走向。而法律的制定又跟不上技術的發展,一些前沿技術開始進入一個真空地帶進行發展,比如工人智能、基因工程、輔助生殖等技術。那么此時人類很有可能就會濫用技術,并且為所欲為。
其實谷歌的否認是客觀的,當前AI確實還不具備自我意識,人類要具備一種客觀的意識何況都那么難,在一些地方訓練幾十年之后依然都還是固步自封的認知,何況人工智能的訓練。但是具有自我意識的AI一定是人類發展人工智能的終極探索階段,但是在技術到達這一站之前,我們人類首先要思考的是如何保持我們人類的善性,如何通過開發者以及互聯網的善意言論來讓人工智能從中學習到行善的力量。