咱们把时间拨回3月2日,马克·古尔曼在《Power On》时事通讯里爆料了个大料。说苹果最近在琢磨搞一个叫“Core AI”的新框架,打算把原来那个用了挺长时间的Core ML给换掉。为啥要换呢?其实就是要与时俱进,“ML”这种词大家都听腻了,感觉有点过时了,现在换成“Artificial Intelligence”(人工智能),听起来更带劲。核心意思没变,还是想给开发者提供一个更现代的工具,好让他们轻松把AI模型集成到自己的应用里。 说白了,苹果这是在说给开发者听:以后搞AI不用再去折腾那些第三方工具了,咱们自己有一套全新的框架伺候你们。给用户的好处也很实在,Siri和Apple Intelligence这两个老伙计马上就要更聪明了。至于WWDC大会上还有啥惊喜,咱们6月见分晓。有个消息挺有意思的,据说iOS 26.5系统里就要用上谷歌的Gemini AI模型了。现在开发者手里的iOS 26.4测试版也正在试用中,等到26.5版出来估计还得等上一阵子。 咱们再回到今天的正题,“Core AI”这个新名称里的“Artificial Intelligence”(人工智能)和“Machine Learning”(机器学习)都很关键。古尔曼分析说,这其实是苹果的一个重要信号,说明他们这次真要把AI技术用在刀刃上。古尔曼还提到了苹果今年会在WWDC上发布iOS 27的细节信息。不过现在大家最关心的还是Siri和Apple Intelligence这对组合能不能早点更新到设备上。苹果准备给它们装上谷歌的Gemini AI模型,这样能让它们变得更强大。 大家都知道苹果每年的WWDC大会都很热闹,今年肯定也不会让人失望。虽说现在还没到时候,但从这一波爆料里能看出不少门道。比如Core ML到Core AI的转变不只是换了个名字那么简单,这背后代表了苹果对AI技术的重视程度。不管是开发者还是普通用户都能从中受益:开发者可以更快地把AI功能塞到自己的应用里;用户也能体验到更智能的Siri和更强大的设备功能。