在今年的全球开发者大会(WWDC)上,苹果面向iOS开发者推出了最新版的机器学习模型框架Core ML 3,将机器智能引入智能手机app。本文带你了解Core ML 3有何亮点。
Core ML 3将首次能够为设备上的(on-device)机器学习提供训练,以提供iOS app的个性化体验。利用不同的数据集训练多个模型的能力也将成为macOS上新的Create ML app的一部分,用于目标检测和识别声音等app。
支持100多种模型层
作为一种快速部署并尊重隐私的方式,设备上的机器学习越来越受欢迎。最近几个月,谷歌的TensorFlow和Facebook的PyTorch等流行框架通过联邦学习(Federated Learning)等方法提供了在线机器学习的解决方案。
Core ML框架在苹果内部被用于训练Siri、QuickType键盘、Memrise app的语言学习以及Polarr照片编辑app的预测。
在去年的WWDC上,苹果推出了Core ML2框架,宣称比上一代快30%,同时推出Create ML,一个GPU加速的框架,用于通过Xcode和Swift编程语言训练定制的AI模型。
最初的iOSCore ML框架是2017年在WWDC上推出,并纳入到iOS 11。预置模型包括苹果的VisionAPI和自然语言框架。
不像谷歌的ML Kit同时适用于安卓和iOS开发者,CoreML是专为苹果iOS操作系统开发app的开发者设计的。2017年底,谷歌宣布TensorFlowLite支持CoreML。
Core ML 3亮点抢先看
无需机器学习的专业知识,使用Core ML 3和新的Create ML app,轻松创建、训练并部署机器学习模型。
Core ML 3将多种机器学习模型集成到你的app中,支持高级神经网络、支持100多种图层,利用CPU、GPU和Neural Engine提供最高性能和效率。你可以直接在设备上运行机器学习模型。
设备模型个性化
Core ML模型被捆绑到app中,帮助驱动像在照片中搜索或对象识别这样的智能功能。现在,这些模型可以通过设备上的用户数据进行更新,帮助模型在不违背隐私的情况下了解用户行为。
支持高级神经网络
现在最复杂的机器学习模型可以在带有Core ML 3的设备上运行。可以使用并运行最新的模型,如用于理解图像、视频、声音和其他富媒体的尖端神经网络。
视觉
在app中轻松构建计算机视觉机器学习功能。利用人脸检测、跟踪和捕获以及文本识别、图像显著性和分类,以及图像相似性识别。其他功能包括提高地标检测、矩形检测、条形码检测、目标跟踪和图像配准。使用新的Document Camera API通过相机检测和捕获文档。
自然语言
对自然语言文本进行分析,推导出其语言特有的元数据,以供深入理解。你可以使用这个框架和Create ML来训练和部署定制的NLP模型。功能包括Create ML文本模型的迁移学习、词嵌入向量(WordEmbedding)、情感分类和文本目录。可用于英语、法语、德语、意大利语、简体中文和西班牙语。
演讲
利用设备上10种语言的语音识别以及语音显著性功能,如语音信息、streaming confidence、语音检测和声学功能。你的app可以通过访问语音识别信息来消除同音词的歧义。这些功能现在也可用于Macapp。
-
苹果
+关注
关注
61文章
24352浏览量
196923 -
iOS
+关注
关注
8文章
3393浏览量
150459 -
机器学习
+关注
关注
66文章
8382浏览量
132446
原文标题:苹果Core ML 3 给开发者惊喜,机器学习训练从未这么简单
文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论