您現(xiàn)在的位置:首頁 > 科技 > 正文

AI詐騙近在眼前,我們該怎么防?|全球熱門

時間:2023-05-25 12:52:58    來源:科普中國網(wǎng)    

任何技術,都是一把雙刃劍。人工智能(AI)又可能給我們帶來哪些危害呢?

當前,無論是科學家、企業(yè)家、媒體,還是我們身邊的其他人,一直在討論 AI 的長期危害,比如可能讓打工人丟掉飯碗、超越或取代人類的思維,甚至讓人類失去對文明的控制等等。

然而,AI 給我們帶來的危害,卻近在眼前。而且,對大多數(shù)人而言,他們只有在親身經(jīng)歷后,才知道自己也是一個受害者。


(相關資料圖)

近日,“一公司老板遭遇 AI 換臉詐騙,10 分鐘被騙 430 萬元”的新聞一度登上了各大新聞網(wǎng)站的熱搜。據(jù)被害人透露,詐騙人通過 AI 換臉和擬聲技術,成功佯裝為他的好友,然后對其進行詐騙,“當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備?!?/strong>

盡管這一事件讓人們對“AI 換臉”詐騙有了更多的認識,但實際上,“AI 換臉”的例子遠不止這些,直播間賣貨的當紅明星、一些不雅視頻中的面孔等等,都可能是不法分子利用 AI 技術制造的騙局。

另外,不法分子也會在盜取他人微信賬號后利用 AI 技術提取語音文件,通過轉發(fā)微信語音進行詐騙。

問題是,我們在享受 AI 技術帶來的便利時,該如何應對“AI 換臉”等新型詐騙?

去年 12 月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,其中提到:深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。

本月初,某短視頻平臺也發(fā)布了“關于人工智能生成內容的平臺規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術創(chuàng)作、發(fā)布侵權內容,包括但不限于肖像權、知識產(chǎn)權等,一經(jīng)發(fā)現(xiàn),平臺將嚴格處罰。

上文提到的換臉直播,可能涉嫌侵犯相關明星藝人的肖像權,如果涉及直播帶貨等商業(yè)行為,會成為加重情節(jié)。值得注意的是,即便只是娛樂,不涉及盈利行為,只要未經(jīng)肖像權人同意,換臉直播也屬于侵權。

那么,就個人而言,又該如何警惕“AI 換臉”等新型詐騙呢?

5 月 24 日,中國互聯(lián)網(wǎng)協(xié)會發(fā)文警示,“面對利用 AI 技術的新型騙局,廣大公眾需提高警惕,加強防范!”具體而言,我們應該做好個人信息安全第一責任人,以及在遠程轉賬時務必進行多重驗證,把好“錢袋子”。

而對行業(yè)而言,澎湃特約評論員熊志認為,必須盡快立規(guī),明確信息保護紅線,加強對技術服務商行為的規(guī)范引導,只有 AI 換臉、AI 擬聲等在每一個環(huán)節(jié)有據(jù)可依、嚴格授權,提升造假詐騙難度,才能更好保護每個人的信息和財產(chǎn)安全。

最后,如果你感覺你正在遭受或已經(jīng)遭受了 AI 換臉、AI 擬聲等詐騙,一定要學會用“法”打敗“AI 魔法”。當然,最好的應對方法便是,選擇不去相信。

標簽:

相關新聞

凡本網(wǎng)注明“XXX(非現(xiàn)代青年網(wǎng))提供”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和其真實性負責。

特別關注

熱文推薦

焦點資訊