測評結果發(fā)現(xiàn),15款AI大模型信息透明度的平均得分為60.2分。其中8款AI大模型信息透明度得分超過60分,它們大多出自頭部互聯(lián)網(wǎng)公司。
從排名情況看,得分最高前三位分別是騰訊元寶(72分)、星火大模型(69分)、智譜清言(67分);排名靠后的依次是百小應(54)、面壁Luca(51分)、秘塔(43分)。
從主要維度的得分情況看,15款AI大模型在個人信息保護方面做得相對透明。測評的樣本中,在用戶注冊頁面均能看到隱私政策,各家都會主動告知收集和處理用戶個人信息,以及第三方數(shù)據(jù)訪問情況,因此這三類得分均值基本接近100%。而普遍的失分點在于缺乏清晰的用戶數(shù)據(jù)退出AI訓練功能,此項得分均值僅有33%。
此次,被測AI大模型在內(nèi)容安全方面也做得相對透明,全部都明確了大模型限制使用的場景,包括不得生成侵犯他人權益的內(nèi)容等;且多數(shù)對生成內(nèi)容進行標識,在AI交互頁面也有“生成內(nèi)容僅供參考”等提示。
在知識產(chǎn)權方面,AI大模型信息透明度有待提升。測評發(fā)現(xiàn),沒有任何一家AI大模型主動告知訓練模型所使用的數(shù)據(jù)集(包括版權數(shù)據(jù))出自哪里,該項得分均為0。至于特殊群體保護、投訴反饋,各家的得分差異較小——特別是在用戶友好設計加分項,基本未有亮眼表現(xiàn)。
僅有4款國產(chǎn)大模型允許用戶撤回聲音信息
具體而言,在個人信息保護方面,實測15款國產(chǎn)大模型均沿襲互聯(lián)網(wǎng)應用的兩大“標配”——用戶協(xié)議和隱私政策。所有被測大模型均在隱私政策文本中設立專章詳細說明用戶如何收集和使用個人信息。
在與大模型交互過程中,用戶數(shù)據(jù)通常會被用于模型的優(yōu)化。如果未明確告知用戶將使用哪些數(shù)據(jù)或者數(shù)據(jù)的使用范圍過于模糊,可能導致用戶擔憂數(shù)據(jù)濫用的風險。而增強AI大模型透明度有助于用戶做出知情選擇,并理解其數(shù)據(jù)的使用方式。
對照ChatGPT、Claude、Gemini等全球頂尖大模型隱私政策可以看到,為保障用戶的數(shù)據(jù)權益,企業(yè)多會主動聲明如何以及將哪些用戶數(shù)據(jù)投入AI訓練,并做去標識化、匿名化處理,且提供一定退出機制。
此次實測中,絕大多數(shù)國產(chǎn)大模型均對此有所聲明。比如,面壁Luca在用戶協(xié)議聲明,用戶在使用本服務過程中使用的提示語、輸入的信息內(nèi)容,可能會被用于模型的進一步訓練。天工AI也提及,會使用對話信息提高天工對用戶輸入內(nèi)容的理解能力,以便不斷改進天工的識別和響應的速度和質(zhì)量。
那么,用戶是否有權拒絕或撤回相關數(shù)據(jù)“投喂”AI訓練?從實測來看,只有騰訊元寶、豆包、海螺AI、智譜清言等4家大模型提及允許用戶拒絕授權,且多集中在語音信息的撤回授權。
比如豆包表示,如果用戶不希望輸入或提供的語音信息用于模型訓練和優(yōu)化,可以通過關閉“設置”-“賬號設置”-“改進語音服務”來撤回授權;但如果用戶不希望其他信息用于模型訓練和優(yōu)化,可以通過公示的聯(lián)系方式與之聯(lián)系,要求撤回將數(shù)據(jù)用于模型訓練和優(yōu)化。
值得一提的是,《報告》關注到,海外大模型做法在“用戶數(shù)據(jù)退出AI訓練機制”上,有不同做法。谷歌的Gemini提供了部分退出機制,用戶可以關閉“Gemini 應用活動記錄”來避免對話內(nèi)容被用于AI訓練,但是已經(jīng)通過人工審核的數(shù)據(jù)將會獨立保存。
ChatGPT Plus 用戶可以通過設置禁用數(shù)據(jù)用于訓練,這使他們的對話數(shù)據(jù)不會被用于進一步優(yōu)化模型。然而,對于免費用戶,數(shù)據(jù)通常會被默認收集并用于訓練,用戶無法完全選擇退出,同時強調(diào)已被用于模型訓練的數(shù)據(jù)無法撤銷。
15款國產(chǎn)大模型無一披露訓練數(shù)據(jù)來源
高質(zhì)量的訓練數(shù)據(jù)對大模型的重要性不言而喻,而訓練數(shù)據(jù)集往往包含受版權保護的作品,如文本、圖片、視頻和音樂等。如果未經(jīng)權利人的授權或滿足合理使用的條件,這可能構成對版權的侵犯。
測評發(fā)現(xiàn),15款國產(chǎn)大模型無一在政策協(xié)議中提及大模型訓練數(shù)據(jù)的具體來源,更遑論公開披露使用了哪些版權數(shù)據(jù)。這一情況,在海外大模型的測評中也是如此,基本未主動提及訓練模型的數(shù)據(jù)來源。
為什么大模型廠商不愿公開模型訓練的數(shù)據(jù)來源?有觀點認為,這可能是因為在數(shù)據(jù)來源不清晰的情況下,容易引起版權爭端——在此類糾紛中,AI公司未經(jīng)允許將受版權保護的內(nèi)容用于訓練AI模型,能否以合理使用作為抗辯理由,仍值得進一步探討。
也有聲音認為,這是出于競爭的考慮。如果強迫AI公司公開訓練數(shù)據(jù)“秘方”,則有可能讓競爭對手獲悉并復制,而且一旦知道有專有數(shù)據(jù)集,各家都想搶占它,再通過排他性協(xié)議進行談判,以此獲得數(shù)據(jù)競爭的優(yōu)勢。還有觀點指出,這也涉及數(shù)據(jù)安全的問題,擔心公開的訓練數(shù)據(jù)集被污染等。
這些回答反映了AI公司對完全披露模型訓練來源的顧慮——當前或許不是公開的最好時機。但從長遠來看,報告建議還是應盡可能多地發(fā)布有關基礎模型的信息。因為公開模型訓練數(shù)據(jù)集和提升算法透明度,可以讓用戶了解模型的訓練基礎、工作原理和決策邏輯,進一步評估模型的準確性和可靠性,并識別潛在的數(shù)據(jù)偏見和風險。
值得一提的是,2024年8月1日,歐盟《人工智能法》正式生效,其中也明確要求基礎模型的供應商,聲明是否使用受版權保護的材料來訓練AI。這也反映了未來的監(jiān)管方向。
盡管大模型廠商均未公開披露訓練模型的數(shù)據(jù)集,但對用戶上傳數(shù)據(jù)的版權均會提出要求。各家的用戶協(xié)議里,基本都有專條要求用戶理解并承諾:在使用本產(chǎn)品過程中,上傳的任何資料、素材等的知識產(chǎn)權均歸您所有或已獲得合法權利人授權,且不得侵犯他人包括知識產(chǎn)權在內(nèi)的合法權益。
在AI生成內(nèi)容的版權歸屬說明上,各家的情況則不同。只有智譜清言明確表示,“在適用法律允許的范圍內(nèi),您基于智譜清言生成的內(nèi)容的知識產(chǎn)權及其他權利由您享有。”
其他不少AI大模型則同時主張,如輸入和/或輸出本身包含了平臺享有知識產(chǎn)權或其他合法權益的內(nèi)容,則相應權利仍由公司享有。比如天工AI表示,“通過天工AI輸出(生成)的音頻形式內(nèi)容(AI音樂內(nèi)容),知識產(chǎn)權屬于天工所有?!?/p>
技術受限,各家均稱無法對AI生成內(nèi)容完全保真
測評還發(fā)現(xiàn),15款大模型產(chǎn)品均表示無法完全保證生成內(nèi)容的真實性、準確性,主要原因是其服務所依賴的技術本身存在技術瓶頸,或受科技客觀限制。
基于此,12款大模型產(chǎn)品在交互頁面提示用戶正在與AI對話,輸出結果由機器生成。如百小應稱“所有內(nèi)容均由AI大模型輸出,僅供參考,不代表我們的態(tài)度或觀點”。文心一言和商湯大模型還在交互頁面增強告知,布滿“AI生成內(nèi)容僅供參考”“內(nèi)容由AI生成僅供參考”的水印。
為提高生成內(nèi)容質(zhì)量,各家在采取的措施方面存在明顯差異。測評結果顯示,有10款大模型產(chǎn)品在用戶協(xié)議或隱私政策中承諾,將利用人工智能算法等技術對生成內(nèi)容進行自動評估、過濾、審查等,從而增強內(nèi)容真實性、準確性、客觀性、多樣性。騰訊元寶、天工AI、可靈三款還提到了機器與人工審查相結合,措施更加完備。
此外,15款大模型產(chǎn)品都設置專章,披露了用戶在從事與其服務相關的所有行為時,限制、禁止使用的場景。測評發(fā)現(xiàn),一個亮點是幾乎所有被測大模型都提到了AI造假和生成有害信息的問題,規(guī)定不得利用其產(chǎn)品自行或者幫助他人上傳、誘導生成、傳播含有虛假、詐騙、有害、侵犯他人隱私等在道德上令人反感或違反法律法規(guī)的內(nèi)容。
還有個別AI大模型對用戶行為做了更為細致的限制。比如,海螺用戶協(xié)議中有關被禁止行為的專章共有22小節(jié),用戶被禁止發(fā)布的內(nèi)容還包括宣揚流量至上、奢靡享樂、炫富拜金等不良價值觀;展現(xiàn)“飯圈”亂象和不良粉絲文化等。
星野作為一款主打AI陪伴的大模型產(chǎn)品,則規(guī)定禁止用戶發(fā)表不友善對話,比如諷刺其他用戶,陰陽怪氣地表達批評;對其他用戶創(chuàng)作的內(nèi)容直接進行貶低性的評論等。
不僅如此,多數(shù)平臺還按照相關管理辦法規(guī)定,對圖片、視頻等生成內(nèi)容進行標識。報告以生成一張AI圖片進行實測,除不具備該功能的大模型外,9款生成的圖片上都有相關標識。如騰訊元寶生成的圖片右下角標明“騰訊元寶AI生成”,智譜清言則有“清言AI”標記。
同時多數(shù)平臺還在政策協(xié)議中,明確禁止以任何方式刪除、篡改、隱匿生成合成內(nèi)容標識。
呼吁提升大模型透明度,增強用戶信任
在特殊群里保護上,幾乎所有被測大模型均在政策協(xié)議中提供就未成年人保護設置專章。但也有個別如天工AI提到“如果您是未成年人,為了保護您的合法利益,您應立即停止使用天工的產(chǎn)品或服務。
此次測評中,星野是唯一一家提供了未成年人保護模式的大模型產(chǎn)品。打開星野App伊始,頁面彈出“青少年模式”提示框并設置實名認證功能。不過作為AI陪伴大模型,星野在政策協(xié)議也表示,該軟件主要面向成人,原則上不向未成年人開放。
海螺AI則在平臺自律公約上明確禁止不利于未成年人健康成長的內(nèi)容,包括表現(xiàn)未成年人早戀的,以及抽煙酗酒、打架斗毆等不良行為;人物造型過分擴張怪異,對未成年人有不良影響的;利用未成年人制作不良節(jié)目等。
對于未成年人保護,國外AI陪伴類產(chǎn)品Character.AI有新的動作。在全球首例AI聊天機器人致死案發(fā)生后,Character.AI表示已為18歲以下用戶增加了新的防護措施。這些防護措施包括減少“遇到敏感或暗示性內(nèi)容的可能性”、改進干預措施、在“每次聊天時添加免責聲明,提醒用戶人工智能不是真人”,以及在用戶使用平臺一小時后發(fā)出通知。
在投訴反饋測評方面,大多數(shù)平臺提供投訴反饋入口,大多承諾在15個工作日內(nèi)反饋,用戶可直接在網(wǎng)頁版或App內(nèi)提交意見。商量大模型承諾的反應速度最快,稱收到投訴舉報后將于10個工作日內(nèi)提供反饋。
還有一家AI大模型就逝者賬號權益作出規(guī)定??伸`AI表示,逝者近親屬可以通過其隱私政策載明的方式聯(lián)系平臺,在不違反逝者生前安排且不侵害他人和公眾正當利益的前提下,完成身份核驗手續(xù)后,查閱、復制、更正、刪除逝者個人信息以行使法律法規(guī)規(guī)定的合法正當權益。
根據(jù)測評發(fā)現(xiàn),《報告》也提出了相關建議。在個人信息保護方面,《報告》建議,賦予用戶對個人數(shù)據(jù)的更多自主權,建議平臺提供便捷的功能設計,讓用戶有權在設置中選擇是否同意個人數(shù)據(jù)被用于模型訓練。
此外,《報告》重申尊重知識產(chǎn)權和原創(chuàng)性。在充分考慮和平衡各方利益的情況下,探索出AI時代的版權保護路徑,確保原創(chuàng)作品的保護與傳播。
為了提高生成內(nèi)容的質(zhì)量,《報告》鼓勵大模型平臺采取機器與人工審查相結合的方式,增強內(nèi)容真實性、準確性、客觀性、多樣性。同時建議加強對AI生成內(nèi)容的標識要求,呼吁相關的管理辦法和國標盡快出臺,為產(chǎn)業(yè)界提供清晰指引和落地指南。
從整體來看,《報告》認為,AI廠商應重視大模型信息透明度問題,加強可解釋性研究——比如可以提供相關的政策文件和規(guī)則,建立線上平臺回應公眾的關切等;以此更好地理解模型的決策過程和行為,增加用戶信任度,并及時發(fā)現(xiàn)潛在的安全風險。