【AI世代编者按】美国《快公司》日前撰文称,之前训练人工智能模型,需要借助庞大的远程数据中心,但今后,这一过程有望完全通过手机完成,甚至只需要几年前发布的iPhone 5就能胜任。
以下为原文内容:
众所周知,如今的智能手机已经像几年前的台式机一样强大,甚至可以比肩几十年前的超级计算机——而现在,它们即将通过“自学”变得更加聪明能干。
今天,图片识别人工智能公司Clarifai发布了一款新的软件,可以让移动应用在智能手机上运行机器学习——真正的训练模型——完全不需要借助云计算服务器,甚至可以在iPhone 5这样的老机型上运行。
要理解这项进展的重要性,首先要明白一些术语。科技公司经常提到能够使用机器学习的应用——只要向人工智能程序展示足够的图片或其他数据,它就能识别重要模式,例如汉堡包里的肉饼和面包的样子。Dog Breed Identifier或Food Calorie Counter都是通过这种模式认出摄像头拍摄的物体的。
但这些应用并不是在手机上学会如何辨识物体的。这一过程通常需要借助强大的服务器群,而这些服务器往往要使用大量像英伟达特斯拉P100这样的GPU,才能开发出一个强大的模型来识别物体的特征。
手机上的应用负责将该模型应用到物体照片,这个过程被称作推理。这一过程对服务器的计算能力要求也很大,但远不及训练一个模型那么大。
很少有应用能在手机上完成真正的训练:例如,苹果Photos的厉害之处就在于通过手机掌握了部分学习功能,可以认出你或你朋友的脸。Clarifai则在2015年推出了一款具备类似功能的应用,名叫Forevery。
苹果即将推出的iOS 11拥有一个名叫Core ML的组件,开发人员可以借此为应用增加推理能力,而非训练能力。谷歌(微博)也在Android中采取了类似的措施,向开发者发布了一款名为TensorFlow Lite for Android的软件。
但在今天发布名为Mobile SDK的软件后,Clarifai可以让开发者将图片和视频的训练过程融入任何一款应用。Clarifai CEO马修·赛勒(Matthew Zeiler)解释了其中的差异:“你可以在苹果Photos里训练人脸,但仅此而已。借助Clarifai的Mobile SDK,开发者就可以在自己的应用上训练任何模型(例如区分兰博基尼和法拉利,或者分出星冰乐和拿铁等),而且完全在终端设备上进行。”
Clarifai于智能手机医疗外设开发商i-Nside共同测试了这项技术。配合着一款用于检查病人耳朵的内窥镜外设,i-Nside开发了一款应用,可以使用Clarifai的机器学习技术训练一种病人耳病的模型。(最终的模型可以用于诊断。)医生可以使用这款应用在非洲、南美和南亚等上网不方便的偏远地区训练模型。所以,整个训练过程都必须在手机上完成。
Clarifai今天将推出这款软件的iOS预览版,Android版很快也将发布。赛勒表示,Mobile SDK可以向后兼容到iPhone 5这样的过时设备。“我们希望进行极限测试,看看我们能否支持早几代的设备。”他说。(编译/长歌)
正文已结束,您可以按alt+4进行评论