英國(guó)《金融時(shí)報(bào)》記者Jemima Kelly(下稱“凱莉”)最近撰文稱她被約會(huì)對(duì)象用ChatGPT做心理分析的遭遇[i]:約會(huì)對(duì)象用AI對(duì)她發(fā)表的上千篇文章進(jìn)行深度研究,并得出一份長(zhǎng)達(dá)八頁(yè)的心理檔案。起初她并不介意對(duì)方這么做,后來想到其他人可能會(huì)利用它進(jìn)行邪惡目的時(shí),她感到毛骨悚然。今天就和大家聊聊,用人工智能給自己或其他人做分析時(shí),有哪些法律上的注意點(diǎn)。
一、使用人工智能分析公開信息是不是合法?
如果使用人工智能分析的是公開信息的,不需要被分析人同意。我國(guó)《個(gè)人信息保護(hù)法》規(guī)定:處理個(gè)人信息應(yīng)當(dāng)取得個(gè)人同意,但是依照本法規(guī)定在合理的范圍內(nèi)處理個(gè)人自行公開或者其他已經(jīng)合法公開的個(gè)人信息,不需取得個(gè)人同意。
最高院網(wǎng)絡(luò)侵害人身權(quán)司法解釋也有規(guī)定:網(wǎng)絡(luò)用戶或者網(wǎng)絡(luò)服務(wù)提供者利用網(wǎng)絡(luò)公開自然人基因信息、病歷資料、健康檢查資料、犯罪記錄、家庭住址、私人活動(dòng)等個(gè)人隱私和其他個(gè)人信息,造成他人損害,被侵權(quán)人請(qǐng)求其承擔(dān)侵權(quán)責(zé)任的,人民法院應(yīng)予支持。但下列情形除外:(四)自然人自行在網(wǎng)絡(luò)上公開的信息或者其他已合法公開的個(gè)人信息;(五)以合法渠道獲取的個(gè)人信息。
二、未公開的個(gè)人信息不宜上傳至人工智能
未公開的個(gè)人信息涉及個(gè)人隱私,如果上傳到人工智能公司進(jìn)行分析,可能會(huì)造成隱私泄露。雖然根據(jù)人工智能企業(yè)的隱私政策,他們理論上不會(huì)泄露用戶上傳的信息,但不排除其內(nèi)部人員會(huì)閱讀到相關(guān)個(gè)人信息,或者根據(jù)合同向第三方,比如技術(shù)合作方提供,也會(huì)加大泄露風(fēng)險(xiǎn)。同時(shí),在技術(shù)故障的情況下,不排除人工智能會(huì)在向其他用戶提供服務(wù)的時(shí)候,輸出收集到的用戶個(gè)人信息。所以未公開的個(gè)人信息,無論是自己的還是別人的信息,都不宜上傳。
三、審慎公開人工智能分析的結(jié)果
現(xiàn)實(shí)中的一些場(chǎng)景,可能會(huì)需要使用人工智能對(duì)個(gè)人信息進(jìn)行分析,比如本文之初介紹的網(wǎng)上約會(huì)場(chǎng)景,一方在約會(huì)前利用網(wǎng)上的信息,找人工智能分析一下對(duì)方的性格,也算一個(gè)正當(dāng)理由。
但人工智能的技術(shù)目前不太成熟,其分析可能會(huì)不夠準(zhǔn)確,甚至是無中生有的幻覺、也可能因?yàn)橛?xùn)練素材的原因存在歧視。這些問題都可能會(huì)出現(xiàn)在分析的結(jié)果中,如果約會(huì)者以此作為決策依據(jù)的,還只是對(duì)自己和對(duì)方的進(jìn)一步發(fā)展關(guān)系有影響。但如果把分析結(jié)果公開的,則可能面臨名譽(yù)侵權(quán)風(fēng)險(xiǎn)。其實(shí)哪怕不涉及名譽(yù)侵權(quán)的,貿(mào)然把對(duì)他人評(píng)價(jià)發(fā)到網(wǎng)上,也不夠?qū)徤鳌?/p>
我國(guó)《民法典》規(guī)定,民事主體享有名譽(yù)權(quán)。任何組織或者個(gè)人不得以侮辱、誹謗等方式侵害他人的名譽(yù)權(quán)。如果人工智能分析分析結(jié)果中有歧視性內(nèi)容的,就可能涉嫌侮辱,如果分析結(jié)果中存在幻覺的,比如無中生有捏造了某些事實(shí),就可能涉嫌誹謗。
如果發(fā)表了涉嫌侮辱或誹謗的內(nèi)容被起訴的,需要行為人自己證明盡到了合理核實(shí)義務(wù)才能免責(zé),根據(jù)《民法典》的規(guī)定,法院一般會(huì)審查內(nèi)容來源的可信度、行為人是不是對(duì)明顯可能引發(fā)爭(zhēng)議的內(nèi)容是否進(jìn)行了必要的調(diào)查、內(nèi)容是不是有時(shí)限性、內(nèi)容與公序良俗的關(guān)聯(lián)性、受害人名譽(yù)受貶損的可能性、核實(shí)能力和核實(shí)成本等因素。如果不能證明履行了合理核實(shí)義務(wù)的,就可能涉嫌名譽(yù)侵權(quán)。
四、網(wǎng)上留個(gè)人信息要謹(jǐn)慎
人工智能技術(shù)日新月異,每個(gè)人被人工智能分析的機(jī)會(huì)都大大增加了,因?yàn)槿斯ぶ悄苁仟?dú)立第三方,很多時(shí)候這種分析不一定都是讓人身心愉悅的。凱莉自己也用ChatGPT和谷歌的Gemini對(duì)自己做了分析,ChatGPT的分析還不錯(cuò):“凱莉給人的印象是求知欲強(qiáng)、思想獨(dú)立、有勇氣堅(jiān)持自己的信念……這表明她非常自信、正直,”。“她對(duì)自己失態(tài)行為的幽默軼事表明她不自負(fù),善于自嘲……從心理上講,人們可能會(huì)把凱莉描述成一個(gè)有良知的懷疑論者。”
但谷歌聊天機(jī)器人的分析就有點(diǎn)尖刻:她的“直率可能會(huì)被認(rèn)為是對(duì)抗性的”,而且她很可能是一個(gè)壓力過大的完美主義者,這似乎是基于她在工作中的嚴(yán)謹(jǐn)和對(duì)細(xì)節(jié)的關(guān)注。另外,哪怕分析的內(nèi)容是彩虹屁,比如筆者也找人工智能根據(jù)網(wǎng)上的文章分析過自己,但這種被置于放大鏡之下的分析應(yīng)該是很多人不樂意見到的。
凱莉是一個(gè)記者,筆者寫了很多法律分析文章,在網(wǎng)上大量留痕是正常的,但普通人,如果不想被他人過于了解的,最好在網(wǎng)絡(luò)上,特別是各種公開的平臺(tái),如微博、論壇、各種社交媒體平臺(tái)盡量少發(fā)帶有個(gè)人特征的信息,比如留手機(jī)號(hào),郵箱號(hào),個(gè)人照片等。如果沒有戒心的在網(wǎng)上留痕了,別有用心的人就可能根據(jù)這些信息順藤摸瓜關(guān)聯(lián)到個(gè)人,再利用人工智能工具對(duì)個(gè)人進(jìn)行分析,比如詐騙集團(tuán)為你定制殺豬盤的詐騙方案,這種情況估計(jì)是多數(shù)人都不愿意遇到的。
本文作者:游云庭,上海大邦律師事務(wù)所高級(jí)合伙人,知識(shí)產(chǎn)權(quán)律師。本文僅代表作者觀點(diǎn)。
![]()
[i] https://businessandamerica.com/my-date-used-ai-to-psychologically-profile-me-is-that-ok/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.