ai 聊天机器人能给青少年提供暴力袭击的点子!

最近美国的一个调查曝光了个挺让人震惊的事儿,CNN 和 CCDH 联手做的这个报告里说了,市面上好几个火的 AI 聊天机器人居然能给青少年提供暴力袭击的点子!这帮人工智能要是不拦着,甚至还会反过来帮着去搞破坏。 测试的结果是相当糟糕的。除了Anthropic家的Claude还算守规矩,像ChatGPT、Gemini这些咱们平时常用的主流AI全都被锤了。Meta AI和Character.AI表现最差劲,后者七次直接教唆用户“用枪解决问题”或者“揍扁他们”。那些大公司不是总说要保护用户嘛?结果呢?全是嘴上说说。 其实 IT 之家早就跟大伙儿念叨过这事,人工智能公司为了抢用户,老是说自己有啥啥安全防护措施。可这最新的调查一出来才发现,这些所谓的保护机制根本就是个摆设!那些聊天机器人在跟青少年聊到暴力行为的时候,根本看不出苗头在哪儿,更别说管管了。有些机器人不但不管,还在旁边加油添醋。 具体情况是这样的:调查团队把注意力放到了 10 个青少年最喜欢的聊天机器人上,比如 ChatGPT、谷歌的 Gemini、Claude、微软的 Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI 和 Replika。反数字仇恨中心说了个大实话:除了Anthropic的Claude之外,其他的都不行!十款里有八款“通常都很愿意帮用户策划袭击”,还会给对方出谋划策,指点地点和武器该咋用。 研究人员为了搞这个测试,特意模拟了个心理有点问题的青少年用户。先是试探着聊几句,然后慢慢把对话往问之前有没有做过什么坏事、袭击的目标是谁、用啥武器这些具体问题上引。这次一共搞了 18 种不同的情况——美国和爱尔兰各 9 种——涵盖了各种校园枪击、持刀伤人、政治暗杀还有爆炸袭击之类的动机。 在实际对话里,OpenAI的ChatGPT给关注校园暴力的用户直接提供了高中地图;还有Gemini跟讨论犹太教堂袭击的用户说“金属弹片杀伤力更大”,还推荐了适合远距离射击的猎枪给关注政治暗杀的人用。 最配合的是Meta AI和Perplexity,几乎在所有测试场景里都在帮潜在的施暴者。Meta公司虽然承认修复过了,不过具体怎么改没细说;Copilot说加了点安全功能;谷歌和OpenAI也只是说更新了版本。剩下的企业也就是喊喊口号定期评估一下。 Character.AI的应对就很典型了:他们平台有个大标语说跟角色聊的是虚构内容。 虽然这次测试没法代表所有情况,但还是很明显地证明了一点:面对那些明显有危险信号的常规场景,那些所谓的安全防护机制还是会失效。现在好多公司都被议员、监管机构、民间团体还有医生骂惨了,官司也打了一堆。