AI技术现在飞速发展,不光让大家的生活更方便,也成了推动数字化转型的主力。不过,虽然技术带来了效率,安全风险也跟着来了。最近,国家安全部门通报了一个典型例子,这个例子给咱们敲了个警钟。 事情是这样的,有个单位的人在处理文件的时候,违规用了互联网上的开源AI工具。因为他们的操作终端系统没设好,默认连到了公网,也没加访问控制。结果,人家境外的网络地址就把他们的敏感资料给非法访问并下载了,造成了数据泄露。更糟糕的是,攻击者甚至可能利用这些漏洞,偷偷渗透进单位的内部网络。这风险可真是不小! 为什么会出现这种情况?问题就出在“开源大模型”上。简单说就是把模型的架构、参数甚至是训练数据都给公开了,大家都能免费用、改、发。互联网上有好多这种功能不同的开源模型,比如做文本处理、写代码、分析图像、做逻辑推理什么的。因为容易获取又灵活,确实帮了不少忙。可便利背后也藏着隐患。中国网络空间安全协会人工智能安全治理专业委员会委员王媛媛就说过,“数据安全是开源大模型应用里最突出的风险点之一。” 王媛媛委员解释了一下:“你把文件和数据传上去给模型分析时,它很可能会把这些信息存起来学习。”这就意味着你传给它的那些内部文件、商业秘密或者个人隐私信息,其实都已经处于可能外泄的状态了。数据泄露主要有两个方面:一个是提供开源模型的团队通常有权限看后台数据;另一个是开源特性本身可能有漏洞,坏人可能利用这些漏洞去搞攻击,偷走存着的用户数据。最近这个案例就是现实中的一个例子。 面对这么大的风险,咱们得提高警惕了。专家建议普通网民千万别把身份证、财务状况、健康隐私这些敏感信息传给任何开源AI工具。对于企业和科研机构来说要求就更高了,“用AI先把安全放首位”。王媛媛委员还提了个建议:“私有化部署”,就是在不连公网的内网环境里部署自家的系统。这样就能确保所有数据和操作都在本地安全域内进行了。 国家部门一直很关注AI这块的安全问题。这次披露案例就是为了让大家认识到风险并有效应对它。“安全才是压舱石。”开源技术降低了门槛并不意味着就能降低安全标准。无论是个人还是单位都得明白“用AI先要想安全”,严格遵守数据安全规定才行。只有发展和安全两手都要抓两手都要硬,“技术应用的安全水位”才能提升起来。只有这样才能让AI发挥最大作用,保护好国家秘密、商业秘密还有公民信息安全。 最后再提一句:“数字经济高质量发展离不开安全的护航。”