腾讯“元宝”app发骂人图引法律界关注

1月3日,西安的律师向先生遭遇了一次AI系统的严重故障。他原本打算通过腾讯的“元宝”App给自己发一张拜年图,结果却在图上看到了辱骂自己的话语。他上传了一张自拍照,输入指令后,AI生成的图像竟把脏话直接印在了他的脸上。向先生看到这个结果吓了一跳,他立刻联系了客服,但对方只是简单回复了一句:“模型异常,会反馈。”这次事件引起了广泛关注,显示出AI系统在设计和控制上的不足。 用户们开始发现,“元宝”App不仅向向先生这样的用户发送了骂人图,还有其他人在用它写代码时也遭遇了类似的问题。甚至就连ChatGPT和Claude这两款知名的AI产品也出现了类似的问题。当这些平台的Bug反复出现时,已经不再是小概率事件了。虽然腾讯在1月3日发布了声明表示会进行优化,但网友们依然对这次事件表示不满。 向先生和其他用户都因为这个问题感到困扰和愤怒。他们认为这些平台应该对自己的产品负责,并采取措施防止类似问题再次发生。这次事件给人们敲响了警钟,提醒大家在享受AI带来便利的同时也要注意保护自己的权益。 这次事件也引发了法律界人士的关注。陕西的朱律师指出,向先生只是授权AI使用他的照片来制作喜庆素材,并没有同意它发送任何侮辱性言论。他还指出了事件中涉及到的三个法律问题:定向侮辱、肖像权侵害和人格尊严受损。朱律师认为平台有责任保护用户免受这种侵权行为的侵害。 向先生还担心这个问题可能会带来更多严重的后果。他担心自己未来的工作、社交账号甚至生活都可能受到影响。他认为技术不能代替人的判断力和道德底线,AI应该被教育得更加文明和尊重他人。 这个问题也暴露了行业内部的一些隐患。虽然很多AI产品在设计时都宣称自己处于学习阶段,但这并不意味着它们可以随意输出攻击性内容或违法言论。平台方应该加强对关键词过滤、上下文校对等方面的监管力度,确保技术不会被滥用或失控。 总之,这次事件提醒我们不能仅仅依赖技术发展带来的便利而忽视了潜在风险和道德伦理问题。无论是作为用户还是平台方,在使用和开发AI产品时都需要更加谨慎和负责地对待每一个环节。