AI诈骗年卷数百亿,音讯陷阱最易误导
2025-11-14 23:25:21 · chineseheadlinenews.com · 来源: 世界日报
运用人工智慧(AI)进行的诈骗,估计每年让消费者和企业造成数百亿美元的损失。社会大众如何才能学到分辨真伪,专家提供几点要诀。
据报道,你认为自己能分辨真人和人工智慧生成的复制人(AI-generated clone)吗?虽然多数人认为自己可以,但最新的研究却表明你可能分辨不出来。

柏克莱加大资讯学院博士生巴林顿表示,随便接听一通不明电话就可能让你身处险境。(取材自ischool.berkeley.edu)
人工智慧不仅模糊了真假之间的界限,在某些情况下,它甚至彻底抹去了这些界限,导致许多毫无防备的消费者和企业因人工智慧相关的诈欺行为而蒙受损失。
一家总部位于旧金山的创投公司的负责人库马尔(Samir Kumar)说:“科技本身并无好坏之分,关键在于人类如何使用它,任何时候,当你让一项能力普及化,让更多人拥有强大的技术工具时,就存在被滥用甚至被武器化的风险。”
只要点击几下滑鼠,人工智慧就能在几秒钟内生成极其逼真的影片和音讯。这些所谓的“深度伪造”(deepfakes)技术可以模仿名人、政客、亲友,以及你能想到的几乎任何人物。
库马尔说:“如果你不道德,想做坏事,试图损害他人的名誉和经济利益,那么你现在拥有了更强大的工具。”尽管人工智慧视讯技术在过去几个月里取得了爆炸式发展,但专家警告说,人工智慧音讯技术可能成为制造虚假资讯、欺骗和欺诈的更普遍工具。
与音讯相比,视讯本身就包含更多可供仔细审查的元素。突然的画面扭曲、尴尬的脸部表情,甚至是错置的身体部位,都常常透露出你看到的画面是由人工智慧产生的。此外,大多数人工智慧生成的影片都在社交媒体上传播,因此心存疑虑的用户可以重播那些看起来有些不对劲的片段,或者浏览评论,看看其他人是否也指出了影片的造假之处。
“你可以获得大量信息来判断,这是真的吗?还是被篡改过的?”
柏克莱加大资讯学院专门研究深度伪造技术的巴林顿(Sarah Barrington)说:“音频则不具备这种优势。”因此巴林顿表示,随便接听一通不明电话,就可能让你身处险境。