资安院揭AI假影片4大情境 可用3方式初步检核
2026-01-24 19:26:06 · chineseheadlinenews.com · 来源: 中央社

图为2026年1月22日首尔的图片展示韩国生成式人工智能服务公司Carat及其网页上产生的AI图像。(图片来源:Jung Yeon-je / AFP via Getty Images)
人工智能(AI)生成影片日益增加,不仅常被用于伪冒名人诈骗,近期也出现虚拟医生散布不实信息。资安院研究员戴毓辰指出,AI假影片可分为名人换脸色情片、伪冒名人诈骗、AI虚拟化身内容农场及搬运Sora影片等4大情境,民众可透过留意AI生成标注、以图搜图、影片情境合理性等方式初步检核。
随着AI技术快速发展,网络上流传愈来愈多假影片。戴毓辰直言,“只要有利可图的地方,就会有AI假影片”,AI技术已能进行换脸、嘴唇同步,也可生成全由AI产制的影片,如“一张照片就能开讲”,仅需一张人物照片与一段声音,AI就能自动算出说话时应有的肌肉抽动等,生成一段人物说话的影片。
戴毓辰分析,依团队观察,目前常见的AI假影片情境可分为4大类,第1类为最早出现的名人换脸色情片,也就是利用AI深度伪造技术(Deepfake),将公众人物的脸部影像移花接木,合成至其他影片。
第2类为伪冒名人诈骗,戴毓辰指出,不法人士常冒用财经专家、权威医生等影像,利用AI做精细的“对嘴”处理,假冒成本人推荐投资或贩售药品,诱使民众加入投资群组或购买产品。
第3类为AI虚拟化身(AI Avatar)内容农场,如YouTube频道“陈志明医生”,经查现实中根本不存在此人。戴毓辰说,传统内容农场以大量文章为主,现在改用AI自动化工厂,利用AI生成不存在的虚拟分身,扮演主持人或专家。由于只要有文案就能自动化产出影片,发布频率极高,内容多涉及健康、理财或长者福利等议题。
戴毓辰解析,AI生成的虚拟化身影片长度仅短短几秒,经由无缝循环播放,可消除影片截断感,构成数分钟影片,“虚拟化身看似动作自然,其实某些手势每隔一段时间就会重复出现”。
第4类为搬运Sora影片,戴毓辰指出,社交媒体上常见内容夸大的短影音,如切猫咪蛋糕,猫咪吓到跳起来,这些多数搬运自专门生成AI影片的创作应用程式Sora。他说,这些影片原本带有浮水印,但搬运者常以遮蔽或裁切方式去除,再发布至各大社交媒体。民众可留意影片角落是否模糊、物品上字体是否正确等,初判影片是否为AI生成。
面对愈来愈逼真的AI假影片,戴毓辰建议民众以3种方式判断,首先是留意AI生成标注,目前多个社交媒体已要求创作者标记AI生成内容,如YouTube引入AI内容揭露标签,民众点击影片说明“更多内容”,可看到“变造或合成的内容”、“声音或影像经过大幅编辑或为数位生成”等提醒。
其次是以图搜图查证,戴毓辰说,“这比较有办法找到破案的线索”,将影片截图并以图搜图,可确认影片中人物是否真实存在,或找出影片相关片段,核实当事人是否曾有相同发言,如将AI假医生“陈志明医生”以图搜图后,无法查出医生的背景资讯,只找到多部YouTube影片,当来源都是同一个,就应该存疑。
再者,观察影片中人、事、时、地、物等情境及细节是否合理。资安院研究员厐在伟指出,“AI假影片通常会有人、事、时、地、物不一致的地方,才需要造假”,如新闻主播播报新闻的片段被伪造为药品宣传,便是不合理的情境。另外,他补充,AI目前仍无法完美生成直线,因此可以放大字体,查看线条是否有凹凸之处。
戴毓辰进一步提供可观察的细节,可从人物、环境及系统层面检视,在人物层面,包含人物五官是否不自然、是否不自然眨眼或几乎不眨眼、牙齿或手指是否糊在一起、轮廓是否干净毛边,以及表情与语调是否匹配。
在环境及系统层面,可留意语音与字幕是否一致、光线或阴影是否合理、人物绿光反射、文字错误、空间构造错误、不合理的运镜、低分辨率压缩痕迹、出现匪夷所思的物品、画面是否不自然变换或延迟、快速移动的破绽、影子动态延迟等。
戴毓辰表示,当AI技术愈来愈进步,可观察的破绽势必愈来愈少,不过,民众多一分怀疑,养成检视AI生成标注、以图搜图、影片情境合理性等查核习惯,就能大幅降低受骗风险。