擔心隱私安全、廣告轟炸、信息誤導等問題——
AI工具雖好用,受訪青年更盼“放心用”
近日,影視颶風工作室創始人潘天鴻(Tim)發布了一條視頻,展示字節跳動發布的AI視頻生成模型“Seedance 2.0”的效果,在感慨該模型的強大功能后,他又特別提到一個“比較恐怖”的意外發現——當他把自己的照片傳到“Seedance 2.0”上,模型生成的視頻中,不僅有他活靈活現的面孔,這張面孔發出的聲音,也和他本人的一模一樣。這意味著“Seedance 2.0”大量使用賬號“影視颶風”發布的視頻進行訓練。潘天鴻是否曾授權相關企業使用這些視頻?“平臺的用戶協議里可能隱藏了類似的授權條款,但我個人沒有收過錢,也沒有被聯系過授權。也許他們在法理上是合規的,但是,這有點恐怖,對吧?”潘天鴻在視頻中說。
盡管“Seedance 2.0”很快緊急叫停了真人人臉上傳功能,但就讀于湖北一所高校的張宇菁依然有所擔憂。社交媒體時代,人們常常將自己的影像、聲音等上傳到網上。“這種數據一旦泄露或被濫用,很容易引發詐騙、信息騷擾,作為普通人,我們毫無還手之力。”他感到使用AI的安全感正在被消磨。
隨著“ChatGPT”“DeepSeek”“Sora”“Seedance”等模型一次又一次刷新人們對AI的認識,這些工具也正在愈發深入地涌入普通人的日常生活。近日,中國青年報·中青校媒面向以大學生為主的青年發起AI工具使用相關問卷調查,共回收有效問卷1390份。調查結果顯示,受訪者最常用的AI工具是語言生成類(77.12%),此外還有圖像生成類(65.32%)、音視頻處理類(30.86%)、辦公學習類(27.84%)等。受訪者擔心目前AI可能引起的風險,有產生“AI幻覺”或虛假信息,誤導用戶(58.13%);可能侵犯肖像權、著作權等個人權益(52.52%);AI生成內容可能被用于詐騙,威脅財產安全(44.39%);AI生成內容可能受商業利益影響,缺乏客觀性(27.12%),等等。
近六成受訪者擔心與AI對話被用于精準用戶畫像
張宇菁日常使用頻率最高的AI是豆包,幾乎遇到任何問題都會第一時間向其咨詢,但一次意外的搜索,讓他對個人數據安全產生了強烈的不安。“我在豆包里搜我的名字和學校,它直接彈出了一整段我的各類信息匯總,我瞬間覺得后背發涼。”張宇菁說,AI的訓練依賴海量數據,可普通用戶對于自己的信息如何被收集、使用,完全沒有知情權和控制權。
張宇菁提到的平臺用戶信息收集,也讓畢業于武漢工程大學的張鴻博感到無奈。“如今各類平臺動輒要求用戶同意全部條款才能使用,不同意則無法注冊,這種‘霸王條款’讓用戶對隱私保護毫無選擇權。”張鴻博的母親喜歡使用短視頻平臺的一鍵生成視頻功能,把家人的照片拼接起來,配上動畫、文字和音樂,分享生活點滴。但每次上傳照片,母親都會格外擔心:“這些面部信息傳上去,萬一被泄露了怎么辦?”張鴻博也擔心,如今AI聲音合成、真人圖像生成的技術日趨成熟,一旦個人信息泄露,被不法分子利用,進行詐騙,后果不堪設想。張鴻博還發現,如今抖音、視頻號上充斥著大量AI生成的內容,有些內容看似專業,實則是虛假信息,一些年輕人都難以辨別,家中長輩更是頻頻中招,常常將AI生成的虛假科普視頻轉發到家庭群。
北京一所高校的學生李奧(化名)則遇到了個人地址被AI獲取的情況。當他在與AI的對話框里輸入“某補貼怎么領取”,幾秒后,AI回答:“結合您當前的位置湖北省荊門市……”李奧盯著那行字,心里覺得不太對勁。“那天我用的是網頁版。手機App要獲取地址權限前,會提前彈窗詢問,但在網頁端使用,好像沒有很明顯的提示。”后來他就此追問AI,AI解釋說地址是系統信息授權得來的,并且保證不會泄露用戶個人隱私。“但那種被讀取信息的感覺,還是不太舒服。”李奧說。
今年50歲的遼寧大連市民劉明英熱衷于網購,也很喜歡使用AI。但她發現,自己和同事聊天提到的喜好,比如想買某種面包、某種服飾,第二天手機上就會出現相關的推薦內容,“感覺自己的談話被竊聽了,連消費喜好、生活日常都藏不住”。為了避免這種情況,如今她和家人、朋友聊天時,會特意把手機放到其他房間。
中青校媒調查顯示,受訪者擔心與AI的對話被用于精準的用戶畫像,并進行精準營銷(57.70%);AI工具過度收集手機號、位置等私人信息(48.78%);一些公司使用自己的社交媒體信息進行訓練(33.96%);等等。
受訪者擔心被AI生成信息誤導或欺騙
李奧感到,這幾年AI已經有了明顯的進步,甚至可以深度思考、解決專業性較強的問題。李奧用AI最多的時候是做課設。他的作業需要處理的數據量大、雜、亂,需要好幾步預處理。現階段的AI就能很好地幫助提升效率。但他也發現了AI仍存在局限,例如常常生成誤導性信息。
“有一次,AI表示,它給出的代碼會對數據進行五步清洗,我逐行審查,發現這些代碼真正完成的只有兩步。”他解釋說,“可能是因為對話上下文太長了,它自己記串了,產生了幻覺。每次到這個時候,就得自己人工再核查一遍,從頭再過一遍代碼。”
云南一所高校的王馨儀在學校校園媒體運營微信公眾號,寫文案是家常便飯,想不到合適的文案時,她會求助AI。AI輸出的內容質量很高,語句很優美,看起來完美無缺。在文案基本寫好,準備推進審核時,她讓AI把引用內容的出處也列出來。當她照著這些出處去網上逐一核對,卻傻了眼:“根本找不到出處,作者名字都是虛構的。如果我當時沒仔細核實,盲目地用了它給的信息和來源,那發表的內容就是假的。”
中青校媒調查顯示,受訪者本人(16.91%)、身邊的同齡朋友(29.57%)、身邊的長輩(29.35%)等,曾遇到過對AI生成內容信以為真,甚至被騙的情況。
張宇菁發現,一些生成式AI還會刻意“討好”用戶,順著用戶的觀點說話,可能讓人形成認知偏見。“我說某個專業很賺錢,AI就只跟我說這個專業的就業利好;等我反過來說這個行業不賺錢,它又立刻找一堆反面例子,并不會客觀分析利弊。”張宇菁直言,這種“墻頭草”式的回應,會讓用戶愈發堅信固有認知。
張宇菁家中冰箱異常結冰,他向AI咨詢溫度調節方法,得到的答案卻與正確方法完全相反。“冰箱溫控1-7檔,正確的是夏季調1-2檔、冬季調5-6檔,結果AI告訴我冬季要調1-2檔,還好我自己反應過來了,不然冰箱里的冰可能越結越厚。”張宇菁說,當他指出錯誤后,AI簡單道歉并糾正,但無法解釋為何會出現這樣的錯誤。“它只能保證輸出的信息在網上出現過,但無法保證真實性。”張宇菁說。
劉明英則感到,AI工具對中老年群體并不友好。劉明英說會遇到AI工具操作步驟復雜,或是想要放大字體卻無法實現的情況。當她著急想要獲取一個簡單的答案,AI卻給出一大段分析內容。“我希望AI可以根據需求靈活調整回答的詳略。”
84.18%受訪者曾遇到過AI向自己推薦商品或服務
王馨儀最近發現,一些AI工具融入了廣告內容。就在春節前幾天,王馨儀在朋友圈里刷到很多朋友“曬”通過千問平臺買的一分錢奶茶。“感覺今年AI領域的競爭格外激烈。”她說。“把AI的功能開發到這個程度,讓AI和商業合作,是一件我從來沒想過的事情。”
看似便捷和優惠的一杯奶茶,卻讓王馨儀提高了警惕。“AI現在可以幫忙點奶茶,那以后是不是能訂飛機票、高鐵票?AI與生活聯系得越緊密,隱私的開放度就越高。”在她看來,AI的發展是好事,但使用時還是要處處留心。因此,王馨儀手機里的每一款AI應用的權限管理都很謹慎,不讓它們隨意訪問相冊和定位。
中青校媒調查顯示,84.18%受訪者曾遇到過AI向自己推薦商品或服務,其中14.03%受訪者經常遇到,36.19%受訪者有時遇到,33.96%受訪者較少遇到。對于AI推薦商品或品牌的情況,12.52%受訪者表示排斥,認為這損害了AI回答的客觀性;54.75%受訪者表示要謹慎看待,懷疑其是否受商業利益影響;25.03%受訪者表示只要推薦合理且有用,就可以接受;5.90%受訪者表示歡迎,認為這是一種高效獲取購物建議的方式;還有1.80%受訪者認為無所謂。
張鴻博也隱約感到AI有意無意地向他輸出廣告。因為手腕做過手術,他在健身前咨詢了豆包,如何健身才能保護手腕,豆包告訴他的方法中,有一條是使用護腕,并在回答問題后,又展示了幾個可以繼續點擊的選項,其中有一條是“是否需要我給你推薦一些護腕”。張鴻博順勢點下去,豆包就推薦了Keep、勞拉之星等品牌的護腕。張鴻博不知道這些并未標注廣告字樣的推薦背后是否確實有商業合作,但他對AI推薦的這些產品是否好用持懷疑態度。
張宇菁也曾遇到類似情況,他想購買索尼相機,向AI咨詢索尼不同系列產品的性能區別,得到的回答里不僅有產品介紹,還直接附帶了商品鏈接;健身時,他詢問AI如何補充“歐米伽3”,AI在推薦相關食物后,又推送了多款魚油的購買鏈接。“它說得有理有據,很容易讓人相信。”但張宇菁認為,這些看似客觀的回答,實則暗藏消費引導,至少應該有明顯的“廣告”字樣標注。
劉明英有時會主動讓元寶等AI推薦養生產品、化妝品,但即使她明確表示自己想要經濟實惠的品牌,但AI還是會給她推薦一些價格昂貴的品牌,沒有什么針對性。劉明英因此產生了警惕心:“怕它為了賣產品故意推薦。”
在使用AI的過程中,張鴻博嘗試過各種方式,規避虛假信息和各類風險。但在他看來,這些方法治標不治本,AI行業的健康發展,更需要從源頭進行治理。“首先要讓用戶條款更透明,把選擇權交還給用戶,比如可以勾選是否授予平臺某些重要權限,而不是一刀切。”張鴻博建議,應該給AI生成的內容添加數字水印,讓用戶能清晰識別,同時建立完善的舉報渠道,對虛假信息、違規推薦進行監管,更重要的是開展AI素養教育,提升全民的辨別能力,讓大家能理性看待和使用AI。
面對AI常常給出的誤導信息,李奧則認為,需要從設置上讓AI直面“幻覺”。“我希望AI能擁有不知道的勇氣。承認自己不知道,比硬編造一個聽起來合理的答案要好得多。”李奧說。
張宇菁雖然覺得AI仍存在各種各樣的問題,但他并不否定AI的價值,只是希望行業能朝著更規范的方向發展。“我希望AI能少一點迎合,多一點客觀,給出問題答案時,能提供多方面的觀點和解決方案。更重要的是,AI的信息來源要更嚴謹,引用權威機構的內容并標注來源,讓用戶能清晰辨別真偽。”同時,他也呼吁平臺加強自我監管,尤其是在生物數據使用、AI生成內容審核方面,建立完善的反饋和修正機制,“只有把AI的信息‘黑箱’打開,把數據安全的防線筑牢,才能讓用戶真正放心地使用AI,讓技術真正服務于人”。
中青校媒調查顯示,受訪者認為,可以建立便捷的渠道,便于公眾舉報AI生成的侵權或有害內容(57.99%);在所有AI生成圖像上強制添加易于識別的“數字水印”或標識(50.22%);企業公開其核心AI模型的基本訓練數據來源與安全、倫理審查情況(49.28%);平臺的征求用戶授權使用相關素材進行AI訓練的信息需要寫在明顯的位置(42.30%),等等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.