AI手机跨平台操作引争议 专家呼吁厘清技术发展与法律边界

近期,一批新型AI手机在执行语音指令完成操作时遭遇困境。这些搭载大语言模型的设备能够通过语音或文字指令理解用户意图、跨系统调取信息并执行操作,却因此被互联网平台判定为涉嫌使用外挂,导致用户账号受到限制甚至封禁。看似简单的技术兼容问题,实则触及了一个更深层的冲突:谁拥有手机的操作权。 AI手机的核心创新在于系统层级的AI助手能够直接读取屏幕内容、模拟用户点击,实现"所说即所得"的智能化操作。这项技术基于无障碍权限与系统层级调用,原本是为了方便用户、提升使用体验。然而,当应用于比价、购物、抢红包等场景时,却直击现有互联网商业模式的核心。 从平台角度看,APP交互界面、商品展示和算法推荐是其竞争力所在。AI手机通过系统层级操作能力,实际上绕过了APP的交互界面,削弱了平台对用户行为的主导权。业界认为这可能构成流量劫持的不正当竞争行为,因此多个平台采取了限制措施。 但问题的另一面同样重要。AI手机的这些功能本质上是帮助用户更高效地完成操作,并未涉及欺诈或恶意行为。用户通过语音指令让手机自动完成购物或抢红包,与手动操作在法律性质上并无本质区别。这引发了一个根本性问题:平台是否有权禁止用户通过AI助手进行合法操作? 在由上海三中院与华东政法大学联合举办的AI手机合规制度构建研讨会上,法学界和司法界专家深入探讨了这个新兴领域的监管挑战。专家们普遍认为,AI手机技术发展的法律边界需要在多个维度进行界定。 首先是个人信息保护问题。AI手机通过调用无障碍功能读取屏幕信息,意味着大量用户隐私数据可能被收集和处理。中国人民大学法学院教授郭禾强调,保障用户对AI功能的"实质知情"是AI手机合规的关键。相比传统的一次性授权方式,AI手机应在具体功能触发时向用户提供清晰、具体的告知,避免笼统授权削弱用户的真实选择权。 其次是数据处理责任问题。中国社会科学院长城学者李明德指出,AI发展再快也不能脱离法治轨道,技术再聪明也不能以牺牲隐私为代价。这要求强化数据处理者的法律义务,完善责任追究机制。 日前出台的《互联网应用程序个人信息收集使用规定(征求意见稿)》为AI手机等创新划定了"最小必要""透明可控""责任闭环"三大原则,为合规发展提供了基本遵循。 第三是平台权益与创新包容的平衡问题。世界知识产权组织仲裁员陈锦川指出,当AI手机成为用户第一入口时,实际上就架空了APP交互界面,削弱了平台的商品展示和算法主导权,可能构成不正当竞争行为。但过度的限制措施也可能阻碍技术创新发展。 对于AI手机技术发展的法律边界,专家们认为需要采取更加理性和包容的态度。传统的"知情——同意"个人信息保护模式在部分场景中已难以运用作用。未来应通过强化数据处理者义务、完善责任追究机制来提升保护水平,同时给予新技术一定的发展空间,避免用法律规范解决技术规范和市场竞争可以解决的问题。 在这场关于"手机操作权"的博弈中,AI手机不仅是一项技术产品,更成为检验法律弹性、商业伦理与创新包容度的试金石。各方需要在充分沟通和理解的基础上,寻求技术、市场与监管的动态平衡。

新技术带来的不只是效率提升,也必然伴随规则重构与风险再分配。围绕AI手机的争议提醒各方:创新不能以隐私和安全为代价,治理也不宜用简单手段压制合理需求。让用户真正知情、让权限使用可控可查、让责任链条清晰可追,将是化解"手机操作权"之争的关键。唯有在持续对话中形成可执行的边界与共识,才能在守住法治底线与公平秩序的同时,为终端创新与数字经济发展留出更稳健的空间。