在AI风靡全球时代 该如何审查其实际效用
2026-01-20 04:25:28 · chineseheadlinenews.com · 来源: 大纪元
(英文大纪元记者Autumn Spredemann撰文/张紫珺编译)人工智能(artificial intelligence,简称AI)被宣传为从生产力革命到近乎自主的决策者等各种各样的角色。
然而,随着AI工具逐渐融入日常运营,人们开始担忧:购买AI产品后,如果其承诺未能兑现,后续将面临何种局面?
从夸大的准确率声明,到不透明的性能指标,有人开始提出这样的问题:当AI系统表现不如预期时,应该如何补救?
这种脱节引起了消费者保护机构、律师和AI专家的关注,他们表示,营销声明需要得到切实有效的执行。
去年,围绕生成式AI(generative AI)——这项技术中最常见的形式之一——取得突破性进展所引发的种种猜测,导致了IBM首席发明家兼联合国AI顾问尼尔‧萨霍塔(Neil Sahota)所说的“虚假营销策略”(false marketing tactics)。
这种现象被称为“漂AI”(AI washing)。它类似于“漂绿”(green washing)的概念,即公司虚假地将自己的产品贴上环保或可持续的标签;“漂AI”则是指企业对其AI模型的能力做出虚假声明或夸大的宣称,使其看起来更先进,以吸引投资或在市场中获得竞争优势。
随后,美国联邦贸易委员会(Federal Trade Commission,简称FTC)一直牵头开展各项举措,以追究人工智能公司对其产品的责任。2024年,该机构推出了“人工智能合规行动”(Operation AI Comply),宣布将对利用“人工智能炒作”(AI hype)的企业采取执法行动。
该倡议旨在打击利用AI工具“欺骗、误导或诈骗人们”的行为。
“联邦贸易委员会致力于确保人工智能公司能够快速创新,同时维护人工智能平台的安全、可靠和客观性,以符合总统的人工智能行动计划。”联邦贸易委员会公共事务副主任克里斯托弗‧比塞克斯(Christopher Bissex)告诉《大纪元时报》。
比塞克斯表示,该机构最近的一些行动包括:对就其AI产品的准确性或有效性做出虚假声明的公司发布命令;起诉做出虚假营销声明的企业;以及开展一项研究,以收集有关公司如何应对AI聊天机器人潜在风险的信息,尤其是在涉及儿童的情况下。

法律框架
美国网络安全公司“ARC防御系统”(ARC Defense Systems)的创始人克里斯托弗‧特罗科拉(Christopher Trocola)表示,问责机制的缺失并非监管不力所致。
“这是因为人们缺乏对现有法律已适用于AI的理解。企业认为‘没有专门针对AI的法律,所以我们无需承担责任’。”他告诉《大纪元时报》。
特罗科拉深知新兴行业的种种弊端,在目睹同样的“失败模式”几乎导致2017年太阳能行业崩溃后,他正在构建AI合规框架。当时,他领导的合规咨询团队工作,在与联邦贸易委员会合作(FTC)的过程中,保护了数百万美元的合同。
如今,正如他所说,“我现在的工作,就是确保AI不会伤害人们(的权益、隐私、安全或生活)。”
他表示,许多现行法规可以应用于AI模型。
特罗科拉表示,真正的问题是,“公司没有意识到他们的AI正在实时造成违反法规的行为,而这些法规已经生效数十年了。”
“法院不会等待‘人工智能法律’出台,他们现在就在应用现有的法律框架。”他说道。
“当现有法规遭到违反时,自愿性的承诺几乎起不到什么保护作用,而且大多数公司没有审计记录来证明自己并无疏失。”
美国网络安全和人工智能咨询公司OODA的首席技术官鲍勃‧古尔利(Bob Gourley)表示:“针对误导性声明的执法行动——例如消费者保护——很可能会在未来几年内加强,因为相关的执法机制其实早已存在。”

“另一方面,对于与安全保障相关的违规行为,很难强制执行,因为没有与(AI)违规行为相关的法规。”古尔利告诉《大纪元时报》。
税务律师、税务服务公司Silver Tax Group创始人查德‧西尔弗(Chad Silver)表示,他亲眼目睹了有关人工智能公司承诺的监管规定存在哪些问题。
“科技巨头与政府之间达成的自愿性自律协议如今在联邦法律上已不具备任何法律效力。”西尔弗告诉《大纪元时报》,“我的团队亲眼目睹软件开发商一方面保证遵守税法,另一方面又通过苛刻的许可协议逃避所有企业责任。这些企业声称他们的算法符合美国国税局的指导方针,但当国税局发出正式传票时,他们却无法提供审计记录。”
“我们帮客户免除了16.7万美元的债务,因为我们证明客户是基于自动化系统提供的虚假信息的建议下行事。迄今为止,最好的问责方式仍是诉讼,因为法院会责令进行证据开示,并为受骗消费者提供实际赔偿。”西尔弗补充道。
2025年,麻省理工学院(Massachusetts Institute of Technology,简称MIT)的研究项目“去中心化架构中的网络化AI代理”(Networked AI Agents in Decentralized Architecture)揭示,尽管在生成式AI领域投资了超过400亿美元,但95%的企业没有获得任何投资回报。
麻省理工学院的这份分析,通过对300多个AI项目进行系统性审查,对52个组织的采访,以及对153位行业领袖进行的调查,提供了一个远离行销宣传、更加清醒的AI现实面貌。
总部位于加州的兰德公司(RAND Corporation)的一项分析得出了类似的结果,发现超过80%的人工智能项目以失败告终,失败率是非人工智能IT项目的两倍。
人工智能产品的支持者则将问题归因于管理层缺乏对AI的理解,以及在部署后用来衡量技术成功与否的指标存在偏差。总部位于芝加哥的软件和服务评测平台G2 发布的一项研究显示,已有 57% 的公司将 AI 代理投入正式生产环境——而非试点阶段——并展现出从测试到规模化应用的周期相当短。

此外,G2的分析指出,83%的受访买家表示对AI代理的表现感到满意。
相比之下,波士顿咨询集团(Boston Consulting Group)去年对全球1,250多家公司进行的一项研究发现,只有5%的公司能大规模实现AI的价值。更值得注意的是,60%的企业表示尽管投入“庞大资金”,却未获得任何实质价值,或仅创造微薄收益。
一些专家表示,提高透明度和加强审计机制,是企业辨别自身是否在AI投资上受误导的关键所在。
“一项值得信赖的审计应括模型层级的检查、安全测试、来源追溯的审查,以及组织治理的评估。”古尔利说道。
他还表示:“审计还应检视培训数据、效能、偏见、对误用的韧性,以及风险缓解策略。审计应定期进行,例如每年一次,其中一部分内容将公开汇总,而组织内部的具体问题则不应披露,因为那属于商业机密。”
特罗科拉认为对AI的审计方法需要改变。
“目前的做法是本末倒置。大家都在审核‘人工智能治理’,也就是监控使用AI的员工。这是错误的目标。我们需要审计的是人工智能安全——也就是AI本身在做什么。”

他表示,这类审计应该包括人工智能漂移等内容——也就是AI模型的性能和准确性会随着时间的推移而逐渐下降的现象,其中包括出现幻觉(hallucinations,注:AI会产生看似合理、语气很肯定,但实际上是错误、捏造或无根据的内容)、资讯外泄和偏见等问题。
“这就是为什么70%到80%的企业AI项目都会失败的原因。他们监控了错误的东西。”特罗科拉说道。
西尔弗认为第三方绩效审计是必要的。
他说:“前沿AI模型提供商面临的监管环境十分严苛,因为各州法律要求他们报告年度能源消耗和训练数据集。第三方机构应该每六个月对模型的权重和偏差进行一次审计,而且审计结果必须具有公信力。”
古尔利坚信人工智能透明度的重要性。
“标准应该具体规定模型设计的文档要求、数据来源、局限性、风险分析和缓解计划,这些内容需要针对每个高影响领域进行调整。”他说道。
他认为,认证工作应该由混合型机构或美国公共机构(例如国家标准与技术研究院)来推动,或由人工智能监管机构与独立专家合作共同执行。
2025年12月11日,白宫发布了“确保人工智能国家政策框架”的行政命令,承诺建立一个“负担最小”(minimally burdensome)的监管结构,其中包括人工智能诉讼工作组、对各州人工智能法律的评估以及可能的联邦报告和披露标准。

斯坦福大学(Stanford University)以人为本人工智能研究所(Human Centered Artificial Intelligence institute)的研究人员预测,经过多年的“数十亿美元的投入”,2026年可能是AI的一个分水岭:届时,AI的实际效用将受到严格审查。
斯坦福大学的一篇题为“斯坦福人工智能专家预测2026年将发生什么”(Stanford AI Experts Predict What Will Happen in 2026,12/15/2025)的文章指出:“来年需要的是严谨而非炒作。问题不再是‘AI能做到吗?’而是‘做得怎么样?成本是多少?为谁服务?’”
2025年12月,总部位于瑞士的世界经济论坛(World Economic Forum)表示,如果说2025年是“人工智能炒作”(AI hype)之年,那么今年可能是“人工智能清算”(AI reckoning)之年。
原文:The Era of ‘AI Washing’ 刊登于英文《大纪元时报》。