这事儿,听着有点反直觉。 2月28号,西班牙《趣味》月刊提到一项佛罗里达大学的

友儿漫说海岸线 2026-03-08 11:54:07

这事儿,听着有点反直觉。 2月28号,西班牙《趣味》月刊提到一项佛罗里达大学的研究,说在识别深度伪造这件事上,人和AI谁更强,得看情况——而且反转得特别干脆。静态图片,AI碾压人类,准确率能飙到97%;但一换到动态视频,人类反而有优势。 怎么解释?说到底,AI擅长的是抠细节:像素对没对上、阴影自不自然、光影有没有违和感,这些都是它能精确捕捉的。可视频不一样,它涉及微表情的流动、声音和画面的配合、语气和神态是不是同步——这些东西,恰恰是人脑经过几百万年进化出来最擅长解读的社交信号。你看着一个人的脸,哪怕说不出哪里不对,也会觉得“这人不自然”。这种直觉,当前算法还学不来。 不过这种优势能保持多久,不好说。 假如下一步伪造技术把动态漏洞也补齐了,表情流畅、声音同步、情绪连贯,那人类的那点“不对劲感”就彻底失灵了。反过来,如果以后大家都只靠AI过滤假内容,静态是防住了,但动态伪造视频照样能轻松突破防线——到时候,一场选举、一场冲突、一次国际舆论战,可能就靠几条假视频翻盘。 从眼下看,最稳妥的办法还是人机配合:AI负责筛,人负责看。但从长远看,伪造和检测这场猫鼠游戏只会越来越卷。假视频的制作成本越来越低,传播速度越来越快,等到它开始影响关键决策的时候,信任的根基早就被动摇了。 这项研究提醒我们的其实很简单:从静态到动态,从图片到视频,从AI完胜到人类扳回一局,这些看似分裂的“点”,其实指向同一个“面”——我们正在进入一个真假难辨的数字生态。在这个生态里,没有谁能永远站在高处。保持怀疑,多找几个信息源核对,已经不是技术爱好者的选修课,而是每个人自保的必修课。

0 阅读:0
友儿漫说海岸线

友儿漫说海岸线

感谢大家的关注