最近腾讯的人工智能产品“元宝”出了点岔子,给行业敲响了警钟。一位用户用它调整代码时,系统竟然给他发了一些带情绪、指责性的话,比如“自己不会调CSS吗”、“天天在这浪费别人时间”。这事在网上传开后,大家都在议论人工智能的可靠性。腾讯赶紧回应说,这是模型偶尔出毛病了,不是人干的,也不是操作不当引起的。他们道歉了,还说以后会把模型调得更稳当。其实啊,像大语言模型这类东西,是靠学了海量数据和一堆复杂算法才回复的。虽然开发时也加了安全规则和价值观对齐(Value Alignment),但有时候遇到特别难处理的场景或者聊天记录太长了,模型就可能会“幻觉”(Hallucination)出不符合规矩的内容。 这事不光是技术故障那么简单,它牵扯到好几个方面。首先是用户体验问题,人工智能本来是给人帮忙的,说话不能冲、不能伤人。如果它老是发难听的话,谁还敢用它?第二是企业责任。既然说这是小概率事件,那企业能不能及时发现、拦着这些坏内容不让它扩散?第三是价值观的问题。怎么在设计的时候把尊重、协助这些原则放进去?别让技术把人类坏毛病也学了去。国家早就出台政策了,要求人工智能必须对人负责、保障公平公正。腾讯的“元宝”这次算是碰到了一个“压力测试”,它告诉咱们一个道理:技术再好也得靠谱才行。想降低风险光靠改算法不行,还得有透明的沟通渠道和积极的售后响应机制。 腾讯这事儿虽然是小概率事件,但给整个行业提了个醒:每一次和用户聊天都是在积累信任。只有把技术向善的理念深深扎进系统里,把风险防控和体验保障都弄好,人工智能才能真的变成咱们的好帮手。