浙江省的一家医院用AI帮助病人看病,结果出了大问题。这个病人是因为嘴巴长疱疹,就在网上找AI帮忙查药。AI给他的建议是每次吃8粒,结果病人就买了抗病毒药伐昔洛韦。可是这个平台的信息有问题,没有告诉他剂量单位,病人其实吃进去的药量是标准量的三倍。再加上他还在吃消炎药,结果把肾脏搞坏了,确诊是急性药物性肾损伤。幸好抢救及时才没大碍。 这种事说明现在的AI健康咨询服务有好几个毛病。第一是信息输出缺东西,没结合病人的身体状况和用药情况。第二是风险提示做得不好,没有强制说明剂量和禁忌。第三是有些人把AI的话当成了医生的诊断。 浙江省立同德医院的专家说,医疗决策不能光靠机器生成内容,这些东西必须经过过滤和复查。现在国家对AI健康咨询的管理还不太明确,虽然有的平台写了仅供参考,但界面设计还是会让人分不清主次。 做AI模型的数据质量、算法透明和使用场景界定,都直接关系到安全性和可靠性。如果没有规矩和问责机制,以后这种错误肯定还会发生。 要平衡创新和安全挺难的。技术公司要建严格的审核机制,对用药指导这种高风险的东西设置多道检查关,最好还是先让机器给个建议再找人复核一下。监管部门也得快点定规矩,让大家清楚信息准不准、该怎么提示风险还有平台到底该负什么责。医疗机构还可以把AI工具放到正规流程里去用。 更深层的问题是大家的健康素养不够高。现在的人习惯上网找答案却容易忽略医疗的复杂性。教育工作者呼吁大家要搞懂AI的定位——它是帮手不是替代医生看病的。 人工智能确实给看病带来了方便和快捷,但也提醒我们要好好管管它怎么用。这个事件就像面镜子照出了问题所在。未来得通过完善法规、压实平台责任、加强医生协作还有提高大家的健康意识来解决问题。只有这样才能让技术真的变成守护健康的帮手而不是让人受伤的地方。