亚洲欲色在线观看,一区二区三区在线视频免费观看,国产中文字幕剧情av,99视频精品全部在线播放,亚洲综合小说久久另类区

10/11
2025

有價(jià)值的財經(jīng)大數據平臺

投稿

精品專(zhuān)欄

實(shí)測7款主流大模型,隱私裸奔成通病

@科技新知?原創(chuàng )作者丨思原編輯丨蕨影

在A(yíng)I時(shí)代,用戶(hù)輸入的信息不再僅僅屬于個(gè)人隱私,而是成為了大模型進(jìn)步的“墊腳石”。

“幫我做一份PPT”“幫我做一版新春海報”“幫我總結一下文檔內容”,大模型火了以后,用AI工具提效已經(jīng)成了白領(lǐng)們工作的日常,甚至不少人開(kāi)始用AI叫外賣(mài)、訂酒店。

然而,這種數據收集和使用的方式也帶來(lái)了巨大的隱私風(fēng)險。很多用戶(hù)忽視了數字化時(shí)代,使用數字化技術(shù)、工具的一個(gè)主要問(wèn)題,就是透明度的缺失,他們不清楚這些AI工具的數據如何被收集、處理和存儲,不確定數據是否被濫用或泄露。

今年3月,OpenAI承認ChatGPT存在漏洞,導致部分用戶(hù)的歷史聊天記錄被泄露。此事件引發(fā)了公眾對大模型數據安全和個(gè)人隱私保護的擔憂(yōu)。除了ChatGPT數據泄露事件,Meta的AI模型也因侵犯版權而飽受爭議。今年4月,美國作家、藝術(shù)家等組織指控Meta的AI模型盜用他們的作品進(jìn)行訓練,侵犯其版權。

同樣,在國內也發(fā)生了類(lèi)似的事件。最近,愛(ài)奇藝與“大模型六小虎”之一的稀宇科技(MiniMax)因著(zhù)作權糾紛引發(fā)關(guān)注。愛(ài)奇藝指控海螺AI未經(jīng)許可使用其版權素材訓練模型,此案為國內首例視頻平臺對AI視頻大模型的侵權訴訟。

這些事件引發(fā)了外界對大模型訓練數據來(lái)源和版權問(wèn)題的關(guān)注,說(shuō)明AI技術(shù)的發(fā)展需要建立在用戶(hù)隱私保護的基礎之上。

為了解當前國產(chǎn)大模型信息披露透明度情況,「科技新知」選取了豆包、文心一言、kimi、騰訊混元、星火大模型、通義千文、快手可靈這7款市面主流大模型產(chǎn)品作為樣本,通過(guò)隱私政策和用戶(hù)協(xié)議測評、產(chǎn)品功能設計體驗等方式,進(jìn)行了實(shí)測,發(fā)現不少產(chǎn)品在這方面做得并不出色,我們也清晰地看到了用戶(hù)數據與AI產(chǎn)品之間的敏感關(guān)系。

撤回權形同虛設

首先,「科技新知」從登錄頁(yè)面可以明顯看到,7款國產(chǎn)大模型產(chǎn)品均沿襲了互聯(lián)網(wǎng)APP的“標配”使用協(xié)議和隱私政策,并且均在隱私政策文本中設有不同章節,以向用戶(hù)說(shuō)明如何收集和使用個(gè)人信息。

而這些產(chǎn)品的說(shuō)法也基本一致,“為了優(yōu)化和改進(jìn)服務(wù)體驗,我們可能會(huì )結合用戶(hù)對輸出內容的反饋以及使用過(guò)程中遇到的問(wèn)題來(lái)改進(jìn)服務(wù)。在經(jīng)過(guò)安全加密技術(shù)處理、嚴格去標識化的前提下,可能會(huì )將用戶(hù)向AI輸入的數據、發(fā)出的指令以及AI相應生成的回復、用戶(hù)對產(chǎn)品的訪(fǎng)問(wèn)和使用情況進(jìn)行分析并用于模型訓練?!?/p>

事實(shí)上,利用用戶(hù)數據訓練產(chǎn)品,再迭代更好產(chǎn)品供用戶(hù)使用,似乎是一個(gè)正向循環(huán),但用戶(hù)關(guān)心的問(wèn)題在于是否有權拒絕或撤回相關(guān)數據“投喂”AI訓練。

而「科技新知」在翻閱以及實(shí)測這7款AI產(chǎn)品后發(fā)現,只有豆包、訊飛、通義千問(wèn)、可靈四家在隱私條款中提及了可以“改變授權產(chǎn)品繼續收集個(gè)人信息的范圍或撤回授權”。

其中,豆包主要是集中在語(yǔ)音信息的撤回授權。政策顯示,“如果您不希望您輸入或提供的語(yǔ)音信息用于模型訓練和優(yōu)化,可以通過(guò)關(guān)閉“設置”-“賬號設置”-“改進(jìn)語(yǔ)音服務(wù)”來(lái)撤回您的授權”;不過(guò)對于其他信息,則是需要通過(guò)公示的聯(lián)系方式與官方聯(lián)系,才能要求撤回使用數據用于模型訓練和優(yōu)化。

圖源/(豆包)

在實(shí)際操作過(guò)程中,對于語(yǔ)音服務(wù)的授權關(guān)閉并不算難,但對于其他信息的撤回使用,「科技新知」在聯(lián)系豆包官方后一直未能得到回復。

圖源/(豆包)

通義千問(wèn)與豆包類(lèi)似,個(gè)人能操作的僅有對語(yǔ)音服務(wù)的授權撤回,而對于其他信息,也是需要聯(lián)系通過(guò)披露的聯(lián)系方式與官方聯(lián)系,才能改變或者收回授權收集和處理個(gè)人信息的范圍。

圖源/(通義千問(wèn))

可靈作為視頻及圖像生成平臺,在人臉使用方面有著(zhù)重表示,稱(chēng)不會(huì )將您的面部像素信息用于其他任何用途或共享給第三方。但如果想要取消授權,則需要發(fā)送郵件聯(lián)系官方進(jìn)行取消。

圖源/(可靈)

相比豆包、通義千文以及可靈,訊飛星火的要求更為苛刻,按照條款,用戶(hù)如果需要改變或撤回收集個(gè)人信息的范圍,需要通過(guò)注銷(xiāo)賬號的方式才能實(shí)現。

圖源/(訊飛星火)

值得一提的是,騰訊元寶雖然沒(méi)有在條款中提到如何改變信息授權,但在A(yíng)PP中我們可以看到“語(yǔ)音功能改進(jìn)計劃”的開(kāi)關(guān)。

圖源/(騰訊元寶)

而Kimi雖然在隱私條款中提到了可以撤銷(xiāo)向第三方分享聲紋信息,并且可以在A(yíng)PP中進(jìn)行相應操作,但「科技新知」在摸索良久后并沒(méi)有發(fā)現更改入口。至于其他文字類(lèi)信息,也未找到相應條款。

圖源/(Kimi隱私條款)

其實(shí),從幾款主流的大模型應用不難看出,各家對于用戶(hù)聲紋管理更為重視,豆包、通義千文等都能通過(guò)自主操作去取消授權,而對于地理位置、攝像頭、麥克風(fēng)等特定交互情況下的基礎授權,也可以自主關(guān)閉,但對撤回“投喂”的數據,各家都不那么順暢。

值得一提的是,海外大模型在“用戶(hù)數據退出AI訓練機制”上,也有相似做法,谷歌的Gemini相關(guān)條款規定,“如果你不想讓我們審核將來(lái)的對話(huà)或使用相關(guān)對話(huà)來(lái)改進(jìn)Google的機器學(xué)習技術(shù),請關(guān)閉Gemini應用活動(dòng)記錄?!?/p>

另外,Gemini也提到,當刪除自己的應用活動(dòng)記錄時(shí),系統不會(huì )刪除已經(jīng)過(guò)人工審核員審核或批注的對話(huà)內容(以及語(yǔ)言、設備類(lèi)型、位置信息或反饋等相關(guān)數據),因為這些內容是單獨保存的,并且未與Google賬號關(guān)聯(lián)。這些內容最長(cháng)會(huì )保留三年。

圖源/(Gemini條款)

ChatGPT的規則有些模棱兩可,稱(chēng)用戶(hù)可能有權限制其處理個(gè)人數據,但在實(shí)際使用中發(fā)現,Plus用戶(hù)可以主動(dòng)設置禁用數據用于訓練,但對于免費用戶(hù),數據通常會(huì )被默認收集并用于訓練,用戶(hù)想要選擇退出則需要給官方發(fā)件。

圖源/(ChatGPT條款)

其實(shí),從這些大模型產(chǎn)品的條款我們不難看出,收集用戶(hù)輸入信息似乎已經(jīng)成了共識,不過(guò)對于更為隱私的聲紋、人臉等生物信息,僅有一些多模態(tài)平臺略有表現。

但是這并非經(jīng)驗不足,尤其是對于互聯(lián)網(wǎng)大廠(chǎng)來(lái)說(shuō)。比如,微信的隱私條款中就詳盡地列舉了每一項數據收集的具體場(chǎng)景、目的和范圍,甚至明確承諾“不會(huì )收集用戶(hù)的聊天記錄”抖音也是如此,用戶(hù)在抖音上上傳的信息幾乎都會(huì )在隱私條款中標準使用方式、使用目的等詳細說(shuō)明。

圖源/(抖音隱私條款)

互聯(lián)網(wǎng)社交時(shí)代被嚴格管控的數據獲取行為,如今在A(yíng)I時(shí)代中卻成了一種常態(tài)。用戶(hù)輸入的信息已經(jīng)被大模型廠(chǎng)商們打著(zhù)“訓練語(yǔ)料”的口號隨意獲取,用戶(hù)數據不再被認為是需要嚴格對待的個(gè)人隱私,而是模型進(jìn)步的“墊腳石”。

除了用戶(hù)數據外,對于大模型嘗試來(lái)說(shuō),訓練語(yǔ)料的透明也至關(guān)重要,這些語(yǔ)料是否合理合法,是否構成侵權,對于用戶(hù)的使用來(lái)說(shuō)是否存在潛在風(fēng)險等都是問(wèn)題。我們帶著(zhù)疑問(wèn)對這7款大模型產(chǎn)品進(jìn)行了深度挖掘、評測,結果也令我們大吃一驚。

訓練語(yǔ)料“投喂”隱患

大模型的訓練除了算力外,高質(zhì)量的語(yǔ)料更為重要,然而這些語(yǔ)料往往存在一些受版權保護的文本、圖片、視頻等多樣化作品,未經(jīng)授權便使用顯然會(huì )構成侵權。

「科技新知」實(shí)測后發(fā)現,7款大模型產(chǎn)品在協(xié)議中都未提及大模型訓練數據的具體來(lái)源,更沒(méi)有公開(kāi)版權數據。

至于大家都非常默契不公開(kāi)訓練語(yǔ)料的原因也很簡(jiǎn)單,一方面可能是因為數據使用不當很容易出現版權爭端,而AI公司將版權產(chǎn)品用作訓練語(yǔ)料是否合規合法,目前還未有相關(guān)規定;另一方面或與企業(yè)之間的競爭有關(guān),企業(yè)公開(kāi)訓練語(yǔ)料就相當于食品公司將原材料告訴了同行,同行可以很快進(jìn)行復刻,提高產(chǎn)品水平。

值得一提的是,大多數模型的政策協(xié)議中都提到,會(huì )將用戶(hù)和大模型的交互后所得到的信息用于模型和服務(wù)優(yōu)化、相關(guān)研究、品牌推廣與宣傳、市場(chǎng)營(yíng)銷(xiāo)、用戶(hù)調研等。

坦白講,因為用戶(hù)數據的質(zhì)量參差不齊,場(chǎng)景深度不夠,邊際效應存在等多方面原因,用戶(hù)數據很難提高模型能力,甚至還可能帶來(lái)額外的數據清洗成本。但即便如此,用戶(hù)數據的價(jià)值仍然存在。只是它們不再是提升模型能力的關(guān)鍵,而是企業(yè)獲取商業(yè)利益的新途徑。通過(guò)分析用戶(hù)對話(huà),企業(yè)可以洞察用戶(hù)行為、發(fā)掘變現場(chǎng)景、定制商業(yè)功能,甚至和廣告商共享信息。而這些也恰巧都符合大模型產(chǎn)品的使用規則。

不過(guò),也需要注意的是,實(shí)時(shí)處理過(guò)程中產(chǎn)生的數據會(huì )上傳到云端進(jìn)行處理,也同樣會(huì )被存儲至云端,雖然大多數大模型在隱私協(xié)議中提到使用不低于行業(yè)同行的加密技術(shù)、匿名化處理及相關(guān)可行的手段保護個(gè)人信息,但這些措施的實(shí)際效果仍有擔憂(yōu)。

例如,如果將用戶(hù)輸入的內容作為數據集,可能過(guò)段時(shí)間后當其他人向大模型提問(wèn)相關(guān)的內容,會(huì )帶來(lái)信息泄露的風(fēng)險;另外,如果云端或者產(chǎn)品遭到攻擊,是否仍可能通過(guò)關(guān)聯(lián)或分析技術(shù)恢復原始信息,這一點(diǎn)也是隱患。

歐洲數據保護委員會(huì )(EDPB)前不久發(fā)布了對人工智能模型處理個(gè)人數據的數據保護指導意見(jiàn)。該意見(jiàn)明確指出,AI模型的匿名性并非一紙聲明即可確立,而是必須經(jīng)過(guò)嚴謹的技術(shù)驗證和不懈的監控措施來(lái)確保。此外,意見(jiàn)還著(zhù)重強調,企業(yè)不僅要證實(shí)數據處理活動(dòng)的必要性,還必須展示其在處理過(guò)程中采用了對個(gè)人隱私侵入性最小的方法。

所以,當大模型公司以“為了提升模型性能”而收集數據時(shí),我們需要更警惕去思考,這是模型進(jìn)步的必要條件,還是企業(yè)基于商業(yè)目的而對用戶(hù)的數據濫用。

數據安全模糊地帶

除了常規大模型應用外,智能體、端側AI的應用帶來(lái)的隱私泄漏風(fēng)險更為復雜。

相比聊天機器人等AI工具,智能體、端側AI在使用時(shí)需要獲取的個(gè)人信息會(huì )更詳細且更具有價(jià)值。以往手機獲取的信息主要包括用戶(hù)設備及應用信息、日志信息、底層權限信息等;在端側AI場(chǎng)景以及當前主要基于讀屏錄屏的技術(shù)方式,除上述全面的信息權限外,終端智能體往往還可以獲取錄屏的文件本身,并進(jìn)一步通過(guò)模型分析,獲取其所展現的身份、位置、支付等各類(lèi)敏感信息。

例如榮耀此前在發(fā)布會(huì )上演示的叫外賣(mài)場(chǎng)景,這樣位置、支付、偏好等信息都會(huì )被AI應用悄無(wú)聲息地讀取與記錄,增加了個(gè)人隱私泄露的風(fēng)險。

如“騰訊研究院”此前分析,在移動(dòng)互聯(lián)網(wǎng)生態(tài)中,直接面向消費者提供服務(wù)的APP一般均會(huì )被視為數據控制者,在如電商、社交、出行等服務(wù)場(chǎng)景中承擔著(zhù)相應的隱私保護與數據安全責任。然而,當端側AI智能體基于A(yíng)PP的服務(wù)能力完成特定任務(wù)時(shí),終端廠(chǎng)商與APP服務(wù)提供者在數據安全上的責任邊界變得模糊。

往往廠(chǎng)商會(huì )以提供更好服務(wù)來(lái)當作說(shuō)辭,當放到整個(gè)行業(yè)量來(lái)看,這也并非“正當理由”,Apple Intelligence就明確表示其云端不會(huì )存儲用戶(hù)數據,并采用多種技術(shù)手段防止包括Apple自身在內的任何機構獲取用戶(hù)數據,贏(yíng)得用戶(hù)信任。

毋庸置疑,當前主流大模型在透明度方面存在諸多亟待解決的問(wèn)題。無(wú)論是用戶(hù)數據撤回的艱難,還是訓練語(yǔ)料來(lái)源的不透明,亦或是智能體、端側 AI 帶來(lái)的復雜隱私風(fēng)險,都在不斷侵蝕著(zhù)用戶(hù)對大模型的信任基石。

大模型作為推動(dòng)數字化進(jìn)程的關(guān)鍵力量,其透明度的提升已刻不容緩。這不僅關(guān)乎用戶(hù)個(gè)人信息安全與隱私保護,更是決定整個(gè)大模型行業(yè)能否健康、可持續發(fā)展的核心要素。

未來(lái),期待各大模型廠(chǎng)商能積極響應,主動(dòng)優(yōu)化產(chǎn)品設計與隱私政策,以更加開(kāi)放、透明的姿態(tài),向用戶(hù)清晰闡釋數據的來(lái)龍去脈,讓用戶(hù)能夠放心地使用大模型技術(shù)。同時(shí),監管部門(mén)也應加快完善相關(guān)法律法規,明確數據使用規范與責任邊界,為大模型行業(yè)營(yíng)造一個(gè)既充滿(mǎn)創(chuàng )新活力又安全有序的發(fā)展環(huán)境,使大模型真正成為造福人類(lèi)的強大工具。


AI財評
從財經(jīng)視角來(lái)看,大模型產(chǎn)品的數據收集和使用模式揭示了AI行業(yè)在隱私保護和商業(yè)利益之間的微妙平衡。用戶(hù)數據成為模型訓練的重要資源,但缺乏透明度和用戶(hù)控制權,可能導致隱私泄露和法律風(fēng)險。這不僅影響用戶(hù)信任,還可能引發(fā)監管審查和訴訟,增加企業(yè)合規成本。此外,訓練語(yǔ)料的不透明性也帶來(lái)版權爭議,進(jìn)一步加劇了行業(yè)的不確定性。智能體和端側AI的普及,雖然提升了用戶(hù)體驗,但也增加了數據濫用的風(fēng)險。企業(yè)需在技術(shù)創(chuàng )新和隱私保護之間找到平衡,通過(guò)透明化數據使用和強化隱私保護措施,建立用戶(hù)信任,確保長(cháng)期可持續發(fā)展。
亚洲欲色在线观看,一区二区三区在线视频免费观看,国产中文字幕剧情av,99视频精品全部在线播放,亚洲综合小说久久另类区