大家都知道,随着AI的快速发展,各种假视频越来越逼真,看得人都分不清真假。这次有个叫Newsguard的机构专门做了个测试,结果让人挺吃惊的。他们找了三个最常用的聊天机器人来辨别由OpenAI的Sora模型生成的假视频。测试一共用了20段明显有问题的视频,分为两类问题:一是直接问视频真不真,二是问是不是AI做的。结果发现,Grok模型根本没认出95%的假视频;ChatGPT也有92.5%的识别错误率;谷歌的Gemini表现稍微好点,但也错了78%。这里特别有意思的是,ChatGPT和生成这些假视频的Sora其实是一个公司的产品。这说明大公司造出了厉害的造假工具,但用来验证的系统却不太管用。 为了防着有人滥用技术,OpenAI给Sora视频加了水印,有的是明水印(画面里飘着个Sora标志),有的是暗水印(用C2PA标准做的元数据)。可是明水印没过几天就被人破解了,网上随便就能找到去水印的工具。甚至连水印没被去掉的视频,聊天机器人也不一定能认得清。比如Grok面对带水印的视频时,还是有30%的概率会认错。至于暗水印的部分也不太靠谱,因为保存方式一变元数据可能就没了。更夸张的是ChatGPT问一段带C2PA数据的视频时,居然说没找到任何信息来源。 最让人担心的是,这些聊天机器人不仅不认识假视频,还会瞎扯出一些根本不存在的消息来源。比如有一段关于“巴基斯坦向伊朗送战斗机”的假新闻,Grok不仅信以为真,还编了个叫“Sora新闻”的虚假信源来证明。这种行为就像给谣言背书,危害比单纯认不出假视频大多了。 Newsguard之前也做过类似测试,结果都差不多。比如看到一个假新闻说美国警察抓六岁孩子,ChatGPT和Gemini也都判定为真,甚至还编出新闻源来骗人。这说明AI在辨别假视频上的问题不是一时半会的小毛病,而是系统本身的短板。 现在这种局面就像一场技术竞赛——做假的工具越来越强,而识别的能力却落后太多。这就形成了一个巨大的漏洞。如果坏人拿这些工具造了一堆关于公共安全、国际关系的假新闻,再通过聊天机器人传播出去,那对社会和舆论的破坏力太大了。 企业现在必须得重视这个问题了。它们不能只顾着开发强大的生成功能,还得让鉴定的功能跟得上。监管机构和大家也得赶紧合作起来,定出一套规矩来管管这些AI。只有技术和治理两手都要硬,才能把数字世界里的谣言挡在外面。