文|創瞰巴黎 Sirine Azouaoui
編輯|Meister Xia
導讀
隨著虛擬化身技術的崛起,人們可以通過與逝者的聊天機器人互動,延續與已故親人的交流。然而,這一技術引發了眾多爭議和擔憂,如心理影響、數據使用等問題。在這個充滿可能性和挑戰的新領域中,我們需要認真思考:逝者機器人的出現是否邁出了道德和社會的界限?人們在對待逝者數據時應該如何平衡尊重與隱私保護的關系?AI技術的快速發展是否需要更加嚴格的監管和規范?
一覽:
- AI的最新進展,讓逝者的數字化保存技術更上一層樓。
- 一些企業正在開發虛擬永生技術,基于逝者在網上留下的信息,生成一個虛擬化身或聊天機器人,供人們與逝者交流,以這種方式“延續生命”。
- 這些虛擬化身利用生成式AI技術,通過學習逝者生前的錄音、信息、趣聞軼事等數據來生成內容。
- 盡管AI技術已經取得了諸多進展,但現階段的虛擬化身仍不完美,專業人士擔心用戶會誤以為聊天機器人是人類、產生依戀心理,并逐漸與世隔絕。
- 我們需要幫助用戶了解這些工具的風險和挑戰,并明確數據使用權的歸屬,從而為相關實踐提供一個規范框架。
人們離世后,留下的個人數據將何去何從?其實,很多都會保留在數字空間中,如網站和社交平臺上的個人資料等。不少網絡平臺都開辟了紀念功能,比如,當臉書(Facebook)用戶離世后,賬戶便會被設為悼念帳戶,供人們悼念逝者、留言,并發布照片。
如今,有了人工智能(AI)技術的助力,我們能夠進一步升級對逝者的數字化保存。比如,一些企業正在開發虛擬永生技術,基于逝者在網上留下的信息,生成一個虛擬化身或聊天機器人,供人們與逝者交流,以這種方式“延續生命”。早在2017年,微軟就申請了一項基于個人數據創建對話替身的專利,并于四年后獲得批準。他們的想法是,創建一個虛擬化身來賦予逝者生命。“人們總希望自己能戰無不勝、長生不老,對死亡的抗拒可謂是刻在骨子里,”法國索邦大學AI專業教授Laurence Devillers解釋說,“這樣說來,如果每個人都愿意付費在逝去后生成一個虛擬化身或是聊天機器人,那將極具經濟效益。”
自2017年之后,一個全新的行業如雨后春筍般出現。2018年,美國記者James Vlahos開發了一個聊天機器人,經過訓練后,說話口吻與其因癌癥去世的父親一模一樣。在父親生前, Vlahos對父親進行了采訪,并全程錄音。隨后,Vlahos與他人共同創辦了一個“交互式記憶應用”平臺,名為HereAfter AI。這一平臺可以在人們在世時記錄下他們的故事、回憶,并留下錄音,在他們去世后以聊天機器人的方式繼續與親朋好友對話。許多初創公司都提供創建數字化身的服務,讓人們在死后繼續“存在”在世上。韓國企業Deepbrain AI推出了一種名為Re:memory的技術,用戶只需花費一萬美元,便可通過投射影像的方式,與一個具有逝者面容、聲音和表情的虛擬化身互動。英國企業Somnium Space則是想要更上一層樓,讓用戶在元宇宙中享受與逝者的沉浸式互動。
01 基于海量數據創建虛擬化身
生成式AI的快速發展讓上述設想成為了現實。當前,網絡上普遍存在各種聊天機器人,能在語義上理解用戶的語言輸入,并做出回復。類似地,“逝者機器人”在學習數十億條數據后,可以模仿人類進行對話。無論是錄音、電子郵件、短信、來自別人的評價、還是生平事跡都可以作為資料,來創建虛擬化身。Devillers解釋道:“計算機會從死者的現有數據中尋找規律。生成式AI可以為大量數據建模,并為其配備人像和聲音。當與用戶開展對話時,AI會在這個龐大的模型中搜索被觸發的相關信息,這樣一來,AI可能會說出一些死者從未說出口的話。”
這些算法會讓人產生與逝者交談的錯覺。在Devillers看來,這是且只是一種錯覺。提供這些服務的初創公司通過復制逝者的樣貌、聲音和說話方式,讓逝者得以“永生”,或是延續記憶。但是,這些“逝者機器人”永遠無法完美重現逝者。Laurence警告說:“從當前的技術水平來看,聲音的模仿度已幾近完美,詞匯的選擇也極為貼切,但與完美之間永遠存在著距離。機器也不可避免地會犯錯,甚至胡編亂造。”
“該技術是好是壞還不能蓋棺定論,但從社會層面而言,我們還沒有做好充分準備。”
AI就像一個基于數據統計的預測器。當用戶與AI進行對話時,算法會根據話題在數據庫中尋找答案。當沒有現成答案時,算法只能使用相關性最高的內容,這意味著生成的結果未必是當事人會給出的回答。更重要的是,AI并不會隨時間的推移而調整與用戶之間的對話。“模型背后的數據擁有豐富的內容,覆蓋多個語境。所以會帶來錯覺,讓我們以為機器會根據提問來調整回答。但事實上,機器是在記錄對話歷史,根據用戶的提問和回答不斷豐富語料庫,從而變得越來越精確。或許,未來能開發出會隨我們而調整的技術,但明天尚未到來。”
02 用戶面臨的重大風險
因此,“逝者機器人”技術并不旨在讓人們實現永生,反而更像是為記憶注入生命,用“活著的記憶”來與用戶進行對話和互動。這些技術的開發者聲稱,它們不僅可以幫助我們更好地了解祖先,還可以用于寄托哀思。然而,我們遠遠無法斷言這些工具絲毫不存在負面影響。2021年,法國國家數字倫理試點委員會(CNPEN)與Devillers合著了一份報告,其中指出了常見聊天機器人(如商業網站上使用的類型)的風險。用戶可能會在不知情的情況下,誤以為自己是在與人類對話,并產生依戀心理。在Devillers看來,當聊天機器人長得與已故親人一模一樣,并用他們的聲音訴說往事時,產生誤會的風險會更高。她擔心,“逝者機器人可能會延長悼念的過程,使分離和痛苦的感覺更持久。這樣一來,我們與機器人的關系會變得更加難以界定。而且,人們對逝者心存愛意,也許會與聊天機器人難舍難分。”
由于機器不具備真正的推理能力或道德觀念,因此風險更大。報告指出,逝者機器人可能會帶來“恐怖谷效應”。例如,聊天機器人可能會說出令人反感的話,或是在一連串正常的應答之后,說出逝者完全不可能說出的話。作者們擔心,這種效應會導致晴天霹靂般的心理痛苦。Devillers還指出,人們可能會對這些機器人上癮,從而變得更為孤僻。
03 社會層面需對此類工具開展評估
除了擔心這些技術可能對用戶產生的心理影響之外,數據的使用方面也惹人擔憂。為了創建這些虛擬化身,AI算法需要從逝者處獲取大量數據。根據2016年的法國《數字共和國法》(Law for a Digital Republic),人們可以選擇保留、刪除或使用個人數據,并可以指派他人來執行上述決策。然而,隨著逝者機器人的不斷涌現,收集、存儲和使用逝者數據也引發了一系列討論:兒童是否享有對數據的決策權?虛擬化身及其數據的使用是否要設置有效期?Devillers解釋道:“現狀是,聊天機器人開發商會與用戶簽訂合同,由用戶決定其個人數據的使用情況。”
逝者機器人市場仍處于起步階段,用戶今后是否會每天大量使用這些工具仍是未知。不過,虛擬化身服務近年來正如雨后春筍般涌現。隨著聯網技術的發展,對話機器人可能會成為我們日常生活中不可或缺的一部分。Devillers認為,社會層面需要對這些工具的使用展開集體討論。“該技術是好是壞還不能蓋棺定論,但從社會層面而言,我們還沒有做好充分準備。我們需要幫助用戶了解AI的挑戰和風險。”Devillers還主張成立一個委員會,通過制定規則來規范相關做法。她總結道:“上述實踐將產生社會影響,因此,我們迫切需要嚴肅對待這一議題。相關決策不應留給少數資本家來做。”
參考資料
Report by the French National Digital Ethics Committee on conversational agents, 2021