簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

看完4個國產大模型的用戶協議,我整個人都不好了

掃一掃下載界面新聞APP

看完4個國產大模型的用戶協議,我整個人都不好了

你對大模型輸入的隱私或機密信息,會被怎樣處理?

文 | 娛樂資本論 付夢珍

編輯 | James

前幾天,有人發現訊飛的“星火認知大模型”官方體驗平臺SparkDesk在用戶協議中有一條令人不解的規定:

根據娛樂資本論的查詢,SparkDesk 的用戶體驗規則中確實有相關含義的條文。就此,我們一同查詢了國內幾款已經公測的大模型產品的用戶協議、測試規則和隱私條款,發現諸如“用戶生成內容屬于平臺”、“注銷大模型服務會同時注銷其它服務”、“平臺可以收集在公開渠道、社交網絡上發現的你的個人信息”等不盡合理的規定還有很多。

所以,我們想在本文中告訴你:

哪些你認為完全合理的AI大模型使用方法,其實是“違反用戶協議”的?

你對大模型輸入的隱私或機密信息,會被怎樣處理?

當你有可能違反了AI大模型的使用條款時,這意味著什么?

一不小心,就違反協議了

3月中旬,百度文心一言開放產品測試,4月7日阿里的“通義千問”啟動內測,4月17日昆侖萬維“天工”啟動內測,4月24日科大訊飛“星火認知大模型”啟動內測。

它們都為用戶提供了一個相對非常簡短的“測試規則”來代替以往冗長的用戶協議,例如《文心一言測試規則》,相對的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測試規則只講了三件事:1.請不要發布違法違規的內容;2.我們還很不成熟,會有錯誤,請不要拿生成結果直接用于嚴肅的場合;3.請盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當你在微信群里跟人截圖炫耀自己獲得內測資格的一瞬間,你已經違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗規則》中找到了對應的規定原文:

“鑒于SparkDesk服務目前處于體驗階段,SparkDesk的有關計算機程序、代碼、技術數據、系統及應用軟件、數據庫、算法、交互界面(包含輸入和輸出內容)、產品設計、產品發布與規劃信息等技術信息或商業信息屬于保密信息。

您知悉并同意,對前述保密信息嚴格保密!未經允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網絡、無線通訊等手段)披露、使用或允許他人使用,或者發送至網站、微博、微信群組或朋友圈、自媒體賬號等網絡環境中。

若您違反本規則約定的保密義務,我們有權依法追究您的法律責任。”

很顯然,“交互界面(包含輸入和輸出內容)”涵蓋了我們在使用SparkDesk時,對著它的對話框輸入的內容,以及它返回給我們的結果。而往往我們都會用微信截圖發給群里的朋友,這是再自然不過的舉動了。

而且輸入SparkDesk的名字,你就能發現有不少公眾號作者,先是在注冊時看到了這段禁止截圖的話,點完同意以后馬上開始截圖體驗,即使水印帶著他的手機號也毫不畏懼。

我們很好奇,這種制定時就應該預見到不可能執行的規定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網信息外,大模型也會保留用戶與它的聊天數據用作訓練,因此用戶的個人信息或企業的商業秘密也有暴露在公眾面前的風險。此前,三星電子的半導體部門發生了3起將商業機密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個人信息,這違反了歐盟的GDPR隱私條款規定。

那么,國產大模型會在協議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國產AI大模型都會收集用戶與模型的問答歷史。如果你對某個回答點了旁邊的“贊”或“踩”,這些進一步的反饋信息也在被收集的信息之列。

這種問答數據的收集主要用于優化產品。不過百度文心一言規定,這些信息還可以被百度方面用作商業用途。

《文心一言(測試版)個人信息保護規則》提到:

“我們通過技術手段對個人信息進行去標識化處理后,去標識化處理的信息將無法識別主體。請您了解并同意,在此情況下我們有權使用已經去標識化的信息;在不透露您個人信息的前提下,我們有權對參與測試人員數據庫進行分析并予以商業化的利用。

當我們展示您的個人信息時,我們會采用包括內容替換、匿名處理方式對您的信息進行脫敏展示,以保護您的信息安全。”

實際上,百度已經收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對題的聊天記錄,并公開在百度的視頻號等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個人信息以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們為API的商業版本則可能會實現對用戶數據的保密,所以希望大家在放飛自我之前好好想想。

我們關注的幾款國內大模型,普遍都提到會用“脫敏”方式處理大家的隱私信息,例如“在經過去標識化且無法重新識別特定個人的前提下”等表述。但是總體上講,平臺收集的信息越少越好,這才是對你隱私的最大保護。

實際情況是相反的:因為用戶都是排隊等著獲取體驗名額,這些大模型產品在審核試用申請時,會傾向于給那些更詳細提交自己身份信息的用戶。

用戶對AI生成的回答可以通過點贊和點踩,反饋滿意與否。開發商們也非常希望一些不好的生成例子,是最先在平臺內部發現和反饋的。然而對開發商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內部反饋,而是直接發到了小紅書、微博等社交網絡。

此時,我們發現有模型在隱私政策中提到,萬一有必要,它們也會通過社交網絡資料知道某個截屏的人是誰:

“在法律允許的情況下,我們還會從公用或商用來源獲取有關您的信息,包括第三方社交網絡服務獲取有關您的信息。

用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一。”

然而,如果大模型的開發商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個人信息,以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認那是你聊的內容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請您謹慎輸入文本信息。一旦您參與測試體驗,將被視為您已經接受以上條款。”

要是我違規了,會有什么處罰?

眾所周知,AI生成的內容多年來在各國法律判決中,大多被視為不受到版權保護,也就是任何人都可以拿去使用和修改。各國判例中主要認為,AI不是人,所以不是知識產權的所有者。

很多用戶天然的認為,在大模型平臺上生成的內容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國產大模型的條款,并非都是這樣規定的。

訊飛星火的“保密條款”我們已經見識過了。而昆侖萬維天工(條款中自稱“奇點”)是不允許用戶商業使用所生成的內容,當然這個背后可能也有避免麻煩的考量,畢竟可能數據集本身的版權也很模糊。

“除非奇點另行書面授權,否則,您只能將天工服務用于非商業用途。您承諾不對天工服務任何部分或天工服務之使用或獲得,進行復制、拷貝、出售、轉售或用于廣告或其他商業目的。”

阿里通義千問將屬于用戶的內容劃歸給用戶。百度文心一言未在這方面作出明確規定,所以你應該可以隨意使用它們。

相比之下,OpenAI則體現了對客戶的一種溫情:它明確將用戶生成的內容的所有權利、所有權和利益轉讓給客戶。

此時,問題來了——如果我真的把平臺不讓商用的生成結果拿去商用了,我會被抓起來嗎?

事實上,內測用戶積極申請國產大模型的測試資格,當然不全是為了玩。他們產出的內容,肯定想盡量用于自己的工作中,真正實現效率的提升。平臺禁止生成內容商用的規定顯得不合情理,但考慮到開發商們有可能有將API商用的打算,我們也大致能理解為什么會有這樣的規定。

唯一的問題是,就像秘塔科技:“中國的Grammarly”如何應對GPT時代的“降維打擊”秘塔科技的COO王益為之前對娛樂資本論講的那樣,市場上目前沒有一種工具能真正檢測什么段落是由AI生成的。“如果有一家說,我就針對某一家的大模型專門去訓練,或許有一點點可能檢測到這一種模型生產的痕跡,但要說能全都檢測出市面上這些大模型生成的結果,那是不可能的。”

另外,這些國產大模型為盡量實現可溯源的目標,都采用了在界面添加水印的方法,來保留用戶的個人信息。而我們已經發現了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號了,這會很困難嗎?

對于訊飛星火和昆侖萬維天工而言,這兩家的賬號或通行證都不會附帶某些特別重要的產品或服務,所以是方便的(有些人可能是訊飛聽寫等的付費用戶,或在使用訊飛的API,此時需要特別注意)。

然而,如果你想停用通義千問,這意味著要刪除你的阿里云賬號;如果你想停用文心一言,這意味著要刪除你的百度賬號。這兩個的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號的前提下,訪問、處理和請求消除個人數據的多種方式,個性化的需求可以給他們發郵件來申訴。不過它也提到,清空對話界面上的對話記錄,并不等于立即消除這些記錄在服務器上的緩存:

當您從我們的服務中刪除信息后,我們可能不會立即從備份系統中刪除相應的信息,但會在備份更新時刪除這些信息。

通義千問的條款指出,“您可以登錄賬號中心后申請注銷賬戶以刪除您的全部信息。”這個賬號中心并不在通義千問的界面里,只能在阿里云的控制臺找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號。

總之,在這些服務能脫離開賬號附帶的其它業務,允許被單獨注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號來申請注冊這些大模型。

寫在最后

當我們追問這些大模型在用戶協議里一些“強人所難”的規定時,我們實際上在問的是,平臺與用戶權利、義務的邊界到底在哪兒?

大模型開發商對用戶數據收集的范圍比較廣。這些數據能為大模型改進產品提供依據,但也讓用戶承擔了諸多風險。相應的,它們對自身承擔的有限責任劃定則十分保守,反復提醒用戶,作為一項實驗性的功能,大模型不為用戶使用后發生的任何問題或損失承擔責任。

“沒有100%的數據安全”。AI大模型和其它互聯網產品一樣,在數據傳輸、存儲和處理過程中都會存在潛在的風險。這還沒有涉及到像ChatGPT那種根據輸入語料而學習的潛在的泄密方式。

雖然開發商自稱會對用戶信息“脫敏”,用戶仍應當定期檢查自己在這些平臺上的隱私設置,并及時關注平臺以小字、彈窗等不確定的形態發布的任何通知。

用戶協議是企業常用來和用戶締結契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權益與個人信息安全,各位用戶們需要仔細閱讀用戶協議、隱私政策等,再點擊那個醒目的“同意并繼續”。

尤瓦爾·赫拉利曾在《人類簡史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發展的趨勢之一,便是提高人類生活的便捷性,在這個過程中,用戶“讓渡隱私權”似乎不可避免。

但是,通過仔細閱讀那些常被人忽略的協議和條款,我們試圖讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺的進一步改進。

我們也希望各家國產大模型的用戶權益保護工作,可以跟模型的研發進度同步,在收集用戶信息時能夠取舍有度,從長遠利益出發,審慎行之。

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

看完4個國產大模型的用戶協議,我整個人都不好了

你對大模型輸入的隱私或機密信息,會被怎樣處理?

文 | 娛樂資本論 付夢珍

編輯 | James

前幾天,有人發現訊飛的“星火認知大模型”官方體驗平臺SparkDesk在用戶協議中有一條令人不解的規定:

根據娛樂資本論的查詢,SparkDesk 的用戶體驗規則中確實有相關含義的條文。就此,我們一同查詢了國內幾款已經公測的大模型產品的用戶協議、測試規則和隱私條款,發現諸如“用戶生成內容屬于平臺”、“注銷大模型服務會同時注銷其它服務”、“平臺可以收集在公開渠道、社交網絡上發現的你的個人信息”等不盡合理的規定還有很多。

所以,我們想在本文中告訴你:

哪些你認為完全合理的AI大模型使用方法,其實是“違反用戶協議”的?

你對大模型輸入的隱私或機密信息,會被怎樣處理?

當你有可能違反了AI大模型的使用條款時,這意味著什么?

一不小心,就違反協議了

3月中旬,百度文心一言開放產品測試,4月7日阿里的“通義千問”啟動內測,4月17日昆侖萬維“天工”啟動內測,4月24日科大訊飛“星火認知大模型”啟動內測。

它們都為用戶提供了一個相對非常簡短的“測試規則”來代替以往冗長的用戶協議,例如《文心一言測試規則》,相對的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測試規則只講了三件事:1.請不要發布違法違規的內容;2.我們還很不成熟,會有錯誤,請不要拿生成結果直接用于嚴肅的場合;3.請盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當你在微信群里跟人截圖炫耀自己獲得內測資格的一瞬間,你已經違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗規則》中找到了對應的規定原文:

“鑒于SparkDesk服務目前處于體驗階段,SparkDesk的有關計算機程序、代碼、技術數據、系統及應用軟件、數據庫、算法、交互界面(包含輸入和輸出內容)、產品設計、產品發布與規劃信息等技術信息或商業信息屬于保密信息。

您知悉并同意,對前述保密信息嚴格保密!未經允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網絡、無線通訊等手段)披露、使用或允許他人使用,或者發送至網站、微博、微信群組或朋友圈、自媒體賬號等網絡環境中。

若您違反本規則約定的保密義務,我們有權依法追究您的法律責任。”

很顯然,“交互界面(包含輸入和輸出內容)”涵蓋了我們在使用SparkDesk時,對著它的對話框輸入的內容,以及它返回給我們的結果。而往往我們都會用微信截圖發給群里的朋友,這是再自然不過的舉動了。

而且輸入SparkDesk的名字,你就能發現有不少公眾號作者,先是在注冊時看到了這段禁止截圖的話,點完同意以后馬上開始截圖體驗,即使水印帶著他的手機號也毫不畏懼。

我們很好奇,這種制定時就應該預見到不可能執行的規定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網信息外,大模型也會保留用戶與它的聊天數據用作訓練,因此用戶的個人信息或企業的商業秘密也有暴露在公眾面前的風險。此前,三星電子的半導體部門發生了3起將商業機密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個人信息,這違反了歐盟的GDPR隱私條款規定。

那么,國產大模型會在協議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國產AI大模型都會收集用戶與模型的問答歷史。如果你對某個回答點了旁邊的“贊”或“踩”,這些進一步的反饋信息也在被收集的信息之列。

這種問答數據的收集主要用于優化產品。不過百度文心一言規定,這些信息還可以被百度方面用作商業用途。

《文心一言(測試版)個人信息保護規則》提到:

“我們通過技術手段對個人信息進行去標識化處理后,去標識化處理的信息將無法識別主體。請您了解并同意,在此情況下我們有權使用已經去標識化的信息;在不透露您個人信息的前提下,我們有權對參與測試人員數據庫進行分析并予以商業化的利用。

當我們展示您的個人信息時,我們會采用包括內容替換、匿名處理方式對您的信息進行脫敏展示,以保護您的信息安全。”

實際上,百度已經收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對題的聊天記錄,并公開在百度的視頻號等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個人信息以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們為API的商業版本則可能會實現對用戶數據的保密,所以希望大家在放飛自我之前好好想想。

我們關注的幾款國內大模型,普遍都提到會用“脫敏”方式處理大家的隱私信息,例如“在經過去標識化且無法重新識別特定個人的前提下”等表述。但是總體上講,平臺收集的信息越少越好,這才是對你隱私的最大保護。

實際情況是相反的:因為用戶都是排隊等著獲取體驗名額,這些大模型產品在審核試用申請時,會傾向于給那些更詳細提交自己身份信息的用戶。

用戶對AI生成的回答可以通過點贊和點踩,反饋滿意與否。開發商們也非常希望一些不好的生成例子,是最先在平臺內部發現和反饋的。然而對開發商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內部反饋,而是直接發到了小紅書、微博等社交網絡。

此時,我們發現有模型在隱私政策中提到,萬一有必要,它們也會通過社交網絡資料知道某個截屏的人是誰:

“在法律允許的情況下,我們還會從公用或商用來源獲取有關您的信息,包括第三方社交網絡服務獲取有關您的信息。

用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一。”

然而,如果大模型的開發商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個人信息,以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認那是你聊的內容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請您謹慎輸入文本信息。一旦您參與測試體驗,將被視為您已經接受以上條款。”

要是我違規了,會有什么處罰?

眾所周知,AI生成的內容多年來在各國法律判決中,大多被視為不受到版權保護,也就是任何人都可以拿去使用和修改。各國判例中主要認為,AI不是人,所以不是知識產權的所有者。

很多用戶天然的認為,在大模型平臺上生成的內容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國產大模型的條款,并非都是這樣規定的。

訊飛星火的“保密條款”我們已經見識過了。而昆侖萬維天工(條款中自稱“奇點”)是不允許用戶商業使用所生成的內容,當然這個背后可能也有避免麻煩的考量,畢竟可能數據集本身的版權也很模糊。

“除非奇點另行書面授權,否則,您只能將天工服務用于非商業用途。您承諾不對天工服務任何部分或天工服務之使用或獲得,進行復制、拷貝、出售、轉售或用于廣告或其他商業目的。”

阿里通義千問將屬于用戶的內容劃歸給用戶。百度文心一言未在這方面作出明確規定,所以你應該可以隨意使用它們。

相比之下,OpenAI則體現了對客戶的一種溫情:它明確將用戶生成的內容的所有權利、所有權和利益轉讓給客戶。

此時,問題來了——如果我真的把平臺不讓商用的生成結果拿去商用了,我會被抓起來嗎?

事實上,內測用戶積極申請國產大模型的測試資格,當然不全是為了玩。他們產出的內容,肯定想盡量用于自己的工作中,真正實現效率的提升。平臺禁止生成內容商用的規定顯得不合情理,但考慮到開發商們有可能有將API商用的打算,我們也大致能理解為什么會有這樣的規定。

唯一的問題是,就像秘塔科技:“中國的Grammarly”如何應對GPT時代的“降維打擊”秘塔科技的COO王益為之前對娛樂資本論講的那樣,市場上目前沒有一種工具能真正檢測什么段落是由AI生成的。“如果有一家說,我就針對某一家的大模型專門去訓練,或許有一點點可能檢測到這一種模型生產的痕跡,但要說能全都檢測出市面上這些大模型生成的結果,那是不可能的。”

另外,這些國產大模型為盡量實現可溯源的目標,都采用了在界面添加水印的方法,來保留用戶的個人信息。而我們已經發現了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號了,這會很困難嗎?

對于訊飛星火和昆侖萬維天工而言,這兩家的賬號或通行證都不會附帶某些特別重要的產品或服務,所以是方便的(有些人可能是訊飛聽寫等的付費用戶,或在使用訊飛的API,此時需要特別注意)。

然而,如果你想停用通義千問,這意味著要刪除你的阿里云賬號;如果你想停用文心一言,這意味著要刪除你的百度賬號。這兩個的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號的前提下,訪問、處理和請求消除個人數據的多種方式,個性化的需求可以給他們發郵件來申訴。不過它也提到,清空對話界面上的對話記錄,并不等于立即消除這些記錄在服務器上的緩存:

當您從我們的服務中刪除信息后,我們可能不會立即從備份系統中刪除相應的信息,但會在備份更新時刪除這些信息。

通義千問的條款指出,“您可以登錄賬號中心后申請注銷賬戶以刪除您的全部信息。”這個賬號中心并不在通義千問的界面里,只能在阿里云的控制臺找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號。

總之,在這些服務能脫離開賬號附帶的其它業務,允許被單獨注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號來申請注冊這些大模型。

寫在最后

當我們追問這些大模型在用戶協議里一些“強人所難”的規定時,我們實際上在問的是,平臺與用戶權利、義務的邊界到底在哪兒?

大模型開發商對用戶數據收集的范圍比較廣。這些數據能為大模型改進產品提供依據,但也讓用戶承擔了諸多風險。相應的,它們對自身承擔的有限責任劃定則十分保守,反復提醒用戶,作為一項實驗性的功能,大模型不為用戶使用后發生的任何問題或損失承擔責任。

“沒有100%的數據安全”。AI大模型和其它互聯網產品一樣,在數據傳輸、存儲和處理過程中都會存在潛在的風險。這還沒有涉及到像ChatGPT那種根據輸入語料而學習的潛在的泄密方式。

雖然開發商自稱會對用戶信息“脫敏”,用戶仍應當定期檢查自己在這些平臺上的隱私設置,并及時關注平臺以小字、彈窗等不確定的形態發布的任何通知。

用戶協議是企業常用來和用戶締結契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權益與個人信息安全,各位用戶們需要仔細閱讀用戶協議、隱私政策等,再點擊那個醒目的“同意并繼續”。

尤瓦爾·赫拉利曾在《人類簡史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發展的趨勢之一,便是提高人類生活的便捷性,在這個過程中,用戶“讓渡隱私權”似乎不可避免。

但是,通過仔細閱讀那些常被人忽略的協議和條款,我們試圖讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺的進一步改進。

我們也希望各家國產大模型的用戶權益保護工作,可以跟模型的研發進度同步,在收集用戶信息時能夠取舍有度,從長遠利益出發,審慎行之。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 岳西县| 固镇县| 新干县| 祥云县| 凤冈县| 南城县| 郸城县| 蓬莱市| 麻阳| 突泉县| 青铜峡市| 石狮市| 白玉县| 通海县| 翁牛特旗| 洛扎县| 彰化市| 乐安县| 明光市| 洪湖市| 永昌县| 阳泉市| 尚志市| 右玉县| 北安市| 平潭县| 天津市| 台南市| 清镇市| 华阴市| 阳东县| 芦溪县| 唐海县| 武宣县| 宿迁市| 林芝县| 沅江市| 玉山县| 武邑县| 盐源县| SHOW|