微软研究:人类辨别AI生成图像成功率仅62%
- AI
- 7天前
- 26热度
7月28日消息,微软人工智能公益项目(Microsoft AI for Good)发布的一篇论文披露了一项引人关注的实验。该实验规模庞大,有超1.25万名全球参与者,进行了28.7万次图像评估。结果显示,人类辨别AI生成图像与真实图像的整体成功率仅62%,仅略高于随机猜测,在识破虚假图像方面面临巨大挑战。
实验发现,不同类型图像的辨别成功率差异明显。参与者最易识别虚假人像图像,然而面对自然景观和城市街景等非人物图像,成功率大幅降至59% - 61%。这凸显出人类区分AI图像的困难,特别是那些无明显人工痕迹或风格线索的图像。
此次实验采用“真实或虚假”问答游戏形式,为贴近现实,研究团队选取的是日常网络浏览中可能遇到的图像样本,而非极具迷惑性的“极端案例”。同时,研究指出随着AI技术不断进步,未来模型生成的图像将更加逼真,辨别难度会进一步加大。
基于研究结果,微软呼吁加强技术透明度,推动广泛采用图像水印和可靠的AI内容检测工具,以降低AI生成内容引发虚假信息传播的风险。此前,微软已发起公众教育活动,提升社会对AI伪造信息威胁的认知。
研究团队还测试了微软自研的AI检测工具,该系统在各类图像上的识别准确率均超95%,远超人类。不过,研究人员强调,即便先进的机器检测手段也并非万无一失。而且,仅依赖水印防护存在明显不足,恶意使用者可通过简单裁剪或图像处理工具轻易去除或掩盖可见水印,绕过视觉警示。
人类在识别人脸类AI图像时更具优势,研究人员认为这源于人类对面部特征高度敏感,能察觉细微异常,如不对称的眼睛、不自然的皮肤纹理等。有趣的是,早期生成对抗网络(GANs)和图像修复(inpainting)技术更具欺骗性,其生成的“业余摄影”风格图像更易被误认为真实拍摄。
其中,图像修复技术尤其危险,它允许将真实照片局部替换为AI生成内容,这种“局部伪造”手段隐蔽性极强,普通用户极难识别,为虚假信息和深度伪造攻击提供了新途径,可能被用于制造误导性新闻或政治宣传。
这项研究再次敲响警钟,面对日益逼真的AI生成内容,人类直觉判断已难以应对。科技企业必须加快开发更强大的检测技术和内容溯源机制,构建多层次防御体系,遏制AI伪造内容在社会层面的恶意传播。