苹果WWDC学习框架Core ML的发布,正式嵌入终端设备
2017年06月06日 由 duketxl 发表
635880
0
苹果全球开发者大会周一低调宣布将推出 Core ML,移动设备上的机器学习编程框架,可应用于 Apple的如 Siri,Camera和 QuickType等产品上。它允许开发人员将训练好的机器学习模型加载到 iPhone或 iPad上,具有轻松集成机器学习模型的能力,使开发者能够使用几行代码构建具有智能功能的应用程序,涵盖从文本分析到面部识别的一切。同时苹果表示,iPhone上的图像识别速度将比 Google Pixel快六倍。
Core ML有一个重要特性是在本地处理机器学习数据,而不会将用户信息发送到云端。在本地处理数据也会带来不少好处,如不需要网络连接,无需等待网络来回传递消息;因为数据不必离开设备,用户也因此能更好的获得隐私权益。但是这对内存和功耗的要求也就更高了。Core ML建立在 Metal和 Accelerate底层技术之上,所以能无缝利用 CPU和 GPU来提供最高的性能和效率。
苹果不是唯一一家致力于将机器学习带入移动设备的公司。 Google在几周前的 I / O开发者大会上宣布推出新的 TensorFlow Lite编程框架,让开发人员更轻松地构建运行在低功耗的 Android设备模型。
使用该机器学习框架,开发人员必须将训练好的模型转换为兼容 Core ML的特殊格式。然后将模型加载到 Apple的 Xcode开发环境中,并部署到 iOS设备上。苹果发布了基于流行开源项目的四个预训练机器学习模型,并且还提供了一个转换器,以便开发人员自己移植。该转换器可用于 Caffe,Keras,scikit-learning,XGBoost和 LibSVM等框架。
这次 WWDC年度开发者大会上,苹果一再提及机器学习(machine learning)以及相关 AI术语。
苹果技术主管 Kevin Lynch说,通过机器学习,个人助理软件 Siri会更积极主动。
软件技术主管Craig Federighi强调 Safari使用机器学习来智能阻止浏览器跟踪,还谈到先进的卷积神经网络改善了照片中的面部识别,并使 Siri更加智能化,深度学习使 Siri的声音更加自然。
硬件工程师 John Ternus讲解了 Radeon Vega GPU有助于机器学习功能,提高了苹果即将推出的 iMac Pro的计算能力。
这次大会中,苹果的高管反复强调他们应用了机器学习,是想告诉我们什么?
早在 2011年,苹果作为首批面对消费者的人工智能公司,由联合创始人史蒂夫·乔布斯(Steve Jobs)宣布在 iPhone上推出语音助手 Siri。直到现在,苹果才再次在 AI领域上再次发出自己的有力声音。这几年来发生了一些什么事情?
苹果自 2011年以来一直在培养 Siri,但直到去年 10月才聘请卡内基·梅隆大学教授深度学习知名人物 Ruslan Salakhutdinov为其首席 AI研究主管。
苹果一度以严格的保密制度闻名,苹果的安全政策甚至延伸到博客、演讲安排甚至与配偶的对话等。一直以来,苹果都不对外公布自己的人工智能发展情况,“保密”的文化传统让苹果的人工智能研究进展变得神秘,但同时也给自己带来了麻烦:难以从学术圈招到人才。想要在学术圈获得知名度和认可,公开研究成果与大家进行交流是关键。在人工智能的浪潮下,一些巨头公司如 Google、Facebook都有自己机器学习研究小组,并可发布论文。这些也造成了苹果在人工智能等方面的专利申请数量已被其主要竞争对手超越。
去年 NIPS大会上,苹果新聘请的这位首席 AI研究主管 Russ Salakhutdinov才宣布允许其人工智能和机器学习研究员公开发布和分享他们的最新研究成果。并在 12月,发布了第一篇人工智能研究论文:模拟 +无监督方法改善合成图像质量(《Learning from Simulated and Unsupervised Images through Adversarial Training》)。
众所周知,AI的发展需要收集和挖掘大量的数据,但苹果隐私保护文化让他们花费了相当多的资源在建立额外的隐私层级保护上。苹果一度高调宣称他们不像其他公司那样收集大量用户数据来进行用户画像。比如优化 Siri,必须收集和解读应用程序的数据,例如日历,餐厅预订,以及浏览。这个立场无疑使苹果在人工智能的赛跑中处于落后地位。
去年的 WWDC大会上,苹果还特地讲解了他们的差异隐私项目(differential privacy)。软件技术主管 Craig Federighi曾说:“需要明确的是,对于这些照片本身,其架构集以加密方式存储在云端,而元数据——包括用户创建的元数据以及我们深度学习后分类得出的元数据——同样经过加密,苹果无法进行读取“。
差异隐私基本思路是,如果大量用户输入某个实际上并不存在的单词,那么我们将不再将其视为拼写错误,甚至可能将其纳入拼写补全推荐。在这种情况下,我们希望全部客户都能够理解该单词,但我们又不希望知晓具体是哪位用户输入了该词。我们刻意回避这种将习惯与个人挂钩的信息。
但只要样本量充足,这种不相符的问题将自行得到解决。因此如果我们希望学习新出现的单词,我们会对其进行哈希处理,并从哈希中提取单一 bit,例如将其称为 1。与此同时,手机设备会对数据内容进行混淆,意味着即使其读取到的数据为 1,其也可能通过随机算法将其表达为 0。
苹果公司获得的数据正是这类混淆处理后的结果。但由于拥有充足的数据量,苹果方面仍然能够建立起宏观视角,并了解大规模群体表现出的真实倾向。具体来讲,苹果公司能够借此了解广泛用户的思维方式,但却无法具体将其与个人联系起来。
涉及个性化信息时,苹果公司的政策限制要求其只能在设备内部进行模型训练。数据匮乏问题也限制了基于个人的深度学习。根据 Jeff Dean的说法,整套神经网络是由成千上万的参数构成,而非单纯参考设备内运行的信息。这种个性化能力的缺失是否致命?至少对谷歌而言是如此。谷歌在 2016年 I/O大会上发布了全面普及机器学习的战略,其中的典型方案就是 Google Assistant个人 AI服务。谷歌公司似乎希望将深度学习本身作为主要目标,而苹果则更倾向于利用这项技术打造更出色的产品。每支人工智能团队都需要决定其是否需要构建深度学习系统。这不仅是一项技术方案,更会带来道德层面的拷问。直到现在,苹果公司的思路显然提供了不同的实现模式。
这次 WWDC大会发布 11款硬件升级,智能音箱 Homepod作为库克隆重介绍的最后一款压轴产品,当为最大看点。除了播放音乐,Homepod还是一个很好的家庭助理,可播报交通信息、新闻、天气、股票、发送信息等。而且,HomePod与 HomeKit高度集成,可以语音操控 Siri控制整个智能家居设备。Siri还会识别用户声音是否与 ID相符,严格的保密隐私。
同时新版的 Siri利用语音合成,听起来更自然。Siri现在有了翻译功能,可以将对话直接进行翻译(口译),目前支持英语翻译中文、法语、德语、意大利语和西班牙语。看起来苹果想将 Siri放到所有的设备中,并希望 Siri能更好的理解用户习惯,带来智能体验。
那么最后,苹果所做的这一切,将成为后发制人的人工智能企业吗?