【民生小事】“AI亂象”亟需整頓
娜娜的2580
發(fā)布于 云南 2025-01-22 · 8.4w瀏覽 1回復 3贊

在互聯(lián)網(wǎng)通訊行業(yè)AI生成的畫面、聲音、視頻越來越逼真,普通用戶愈發(fā)難辨真?zhèn)?。AI造謠、AI侵權、AI詐騙等亂象也紛至沓來,有不法分子利用AI技術編“偽消息”、造“假新聞”、“虛擬直播”等行為,騙取流量非法謀利。些亂象不僅損害了消費者的權益,也阻礙了AI技術的健康發(fā)展,亟需整頓清理“AI亂象”

破壞市場秩序,侵蝕消費者合法權益。隨著AI技術突飛猛進,如今只要輸入一段某人說話的視頻,系統(tǒng)即可提取相關畫面與嗓音特質,再輸入自行設計的“臺詞”,AI版“分身”便能開始“表演”,于是,不法分子就開始將這項技術用于偽造名人帶貨視頻,利用公眾對名人的信任,制造虛假信息,誘導消費者購買商品。譬如像“張文宏被直播帶貨”事件,利用名人效應通過AI合成視頻,導致不少老人信以為真、大量下單購買,目前該賬號已經(jīng)搜索不到,也許不久之后,網(wǎng)絡平臺又會冒出個另一個直播帶貨“張文宏”。

制造虛假言論,政府公信力受到質疑。AI造謠和虛假信息的傳播會削弱政府的公信力。當公眾接觸到大量未經(jīng)證實的AI生成內容時,真假難辨,且寫出的語言極具煽動性,極易引發(fā)社會輿論廣泛關注。,2024年1月23日,有網(wǎng)民在某平臺發(fā)布文章稱:“云南山體滑坡災害 已致8人遇難”。經(jīng)查,違法行為人楊某某為獲取流量牟利,搜集網(wǎng)絡上的相關信息后,利用ai軟件生成了“云南山體滑坡災害 已致8人遇難”的虛假新聞信息,并發(fā)布在網(wǎng)絡平臺上,造成不良社會影響。目前,公安機關已依法對楊某某進行行政處罰。

網(wǎng)絡詐騙手段頻生,司法程序面臨諸多阻力。我們常說“眼見為實”,但在AI時代,肉眼所看見的也不一定是真相。一些不法分子利用“AI換臉”技術實施詐騙,已成為一種新型騙局。一張肖像照片、一段貌似熟人的視頻,都可能被不法分子利用作為詐騙的手段和工具。除了讓照片上的人像活化,AI換臉技術還能實現(xiàn)在即時視頻通信狀態(tài)下的實時換臉。如:某公司職員小李在工作時接到“老板”的視頻通話,“老板”稱有一筆緊急業(yè)務需要資金周轉,要求小李立即轉賬到指定賬戶。由于“老板”的臉和聲音都與平常無異,小李未多想便照做了,事后才發(fā)現(xiàn)所謂的“老板”是騙子利用AI技術偽裝的。

娜娜的2580
物來順應 未來不迎 當時不雜 既過不戀
瀏覽 8.4w
3
相關推薦
最新評論 1
贊過的人 3
評論加載中...

暫無評論,快來評論吧!