苹果在为开发者提供先进的设备端人工智能(AI)能力方面取得了显著进展。最近,这家科技巨头在Hugging Face平台上发布了20个新的Core ML模型和4个数据集,展示了苹果增强AI技术的决心,同时优先考虑用户隐私和操作效率。
Hugging Face的联合创始人兼CEO克莱门特·德朗格(Clement Delangue)在一份声明中强调了此次更新的重要性。他表示:“这次重大更新为Hugging Face的代码库引入了许多新的模型,利用Core ML框架。”德朗格补充说:“这些模型为文本和图像处理提供了令人兴奋的新功能,使应用程序能够轻松移除照片的背景,或即时识别对象并用不同语言提供名称。”
新推出的Core ML模型适用于多种应用,包括用于图像分类的FastViT、用于单目深度估计的DepthAnything和用于语义分割的DETR。这些模型经过优化,可在设备端高效运行,无需网络连接。这一设计不仅提升了应用程序的速度,也确保了用户数据的安全和隐私。
德朗格进一步强调了设备端AI的重要性,指出:“Core ML模型严格在用户设备上运行,不需要网络连接。这使得应用程序迅速便捷,同时保护用户数据的隐私。”
苹果与Hugging Face的合作推动了AI创新,近期发布的模型和数据集便是这项合作的成果。双方的联手还促进了多个倡议的落实,包括MLX社区和将开源AI集成到苹果智能特性中。
专家认为,苹果对设备端AI的重视与将计算能力从云端转移到边缘设备的趋势相一致。通过充分利用苹果自家的芯片技术,同时减少内存使用和能耗,Core ML使开发者能够创建智能应用,提供流畅的用户体验,且不妥协隐私。
随着对隐私优先、效率高的AI解决方案需求的增加,苹果最新推出的功能将使开发者能够在图像和视频处理、自然语言处理等多个行业中创造出创新的应用。这些新的Core ML模型和数据集在Hugging Face的发布将鼓励AI社区的协作,推动设备端AI能力的边界。
苹果在推进AI发展的同时优先考虑用户隐私,为行业树立了强有力的标杆。随着越来越多的科技公司认识到设备端AI的重要性,未来我们可以期待更多智能且重视隐私的应用程序的发展,这些应用将利用本地模型,提供变革性的用户体验。