曾經爆紅的馬保國,近日又成為網絡熱詞。只是這次是因為他的臉成了被AI換臉的“新寵”。
在各大短視頻平臺,馬保國的臉被人惡搞“安裝”在各種人身上,配合搞笑的肢體動作、語言、配樂等,著實給發布者帶來很多流量。
網友這般跟風“創作”,雖然大多數是把馬保國的頭像當作“搞笑”素材,但這背后反映出AI應用走偏帶來的風險隱患,值得人們嚴肅討論。
正如馬保國本人在其個人短視頻賬號中所作的普法提示,網友在未經其本人允許情況下大肆使用其個人頭像,已涉嫌侵犯公民肖像權。我國民法典中明確規定,任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。除非是法律另有規定,未經肖像權人同意,不得制作、使用、公開肖像權人的肖像。
必須看到,AI換臉應用技術的泛濫,正給我們的生活帶來已知或未知的嚴重后果,由此引發的案件已多次發生。
女子地鐵照被AI“一鍵脫衣”
就在今年3月,廣州一女子在地鐵上乘車照片被AI“一鍵脫衣”,相關造謠圖迅即在網絡廣泛傳播,事實上,這張裸體照并非真實照片,原圖中她衣著正常,完全沒有任何不妥之處,但卻被有心之人用AI軟件“一鍵脫衣”故意全網散播,對個人已造成巨大傷害。(>>此前報道)
此外,多起AI換臉或AI換裝的爭議事件也引起網友討論。
“AI換臉”詐騙防不勝防
前不久,多地警方提醒公眾警惕“AI換臉”新型詐騙,就有一男子因AI“偷臉”,10分鐘被騙430萬元……
近日,內蒙古包頭警方發布一起利用AI實施電信詐騙的典型案例。
來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。
基于對好友的信任,加上已經視頻聊天“核實”了身份,郭先生在10分鐘內,先后分兩筆把430萬元轉到了對方的銀行賬戶上。
事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。“當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備。”郭先生事后說。
這類案件雖與馬保國所遭遇的被換臉惡搞屬于不同性質,但人們必須要警惕在這種泛娛樂氛圍中大家會逐漸失去對AI換臉的風險意識。如果AI換臉能夠被輕松應用,這將大大降低侵權、詐騙行為的門檻,也將令所有人陷入防不勝防的悲催境地。
央廣網評
這一次是馬保國,下一次沒準就是你我這樣的普通人。這一次換臉引發的是惡搞,下一次或許就是我們中的任何一個人被惡搞、被構陷、被……細思極恐。無論如何,在AI應用日益頻繁且多元化的今天,對其可能帶來的風險,我們絕不可忽視,且每一個駐在互聯網空間的居民都要自覺守護個人權益不受侵犯。
這一現象應引起監管層面的重視。
到底哪些AI應用應該被規范和克制,哪些應被徹底禁止?
如何確保AI應用開發不觸犯法律和倫理底線?
個人如何有效防范AI應用可能伴生的公民權益風險?
平臺對于類似AI換臉內容的傳播,是否有必要作出限制?
這些問題都應該在AI技術的研發應用實踐中同題共答。總之,有效預防AI應用誤入歧途,避免打開“潘多拉”魔盒,是我們每個人必須采取的態度和行動。
(來源:央廣網 | 作者 朱昌俊)
1.本網(張家口新聞網)稿件下“稿件來源”項標注為“張家口新聞網”、“張家口日報”、“張家口晚報”的,根據協議,其文字、圖片、音頻、視頻稿件之網絡版權均屬張家口新聞網所有,任何媒體、網站或個人 未經本網協議授權,不得轉載、鏈接、轉貼或以其他方式復制發表。已經本網協議授權的媒體、網站,在下載使用 時須注明“稿件來源:張家口新聞網”,違者本網將依法追究責任。
2.本網其他轉載稿件涉及版權等問題,請作者或版權所有者在一周內來電或來函。聯系電話:0313-2051987。