|
苹果大秀AI肌肉:详解Core ML框架及智能音箱HomePod 关注冲牙器什么牌子好 制氧机哪个牌子好 扫地机器人 进口,有帮助!
与Google相比,今天凌晨的苹果全球开发者大会(WWDC)节奏超快。苹果一口气连续发布了多款软硬件新产品、新服务。比方各种操作系统,包括iOS 11、macOS High Sierra、watchOS 4;新款iPad Pro;全新的iMac Pro;以及多年以来的又一款新产品:HomePod。整场WWDC有一个因素贯穿始终,那就是机器学习。长期以来苹果都被认为在人工智能方面进展缓慢,但苹果显然不甘落后。到底苹果秀了哪些AI肌肉?咱们一个一个说。CoreML我们来念一遍WWDC的全称:全球开发者大会(Worldwide Developers Conference)。在iOS 11更好的Siri、手机上的AR背后,自然是面向开发者的新工具。Core ML就是苹果新推出的,面向开发者的机器学习框架。苹果说,Core ML让开发者更容易把机器学习用到App里,文本分析、人脸识别等等功能,都可以依靠这个工具。苹果说,用了Core ML,iPhone上的人脸识别比Google Pixel上快6倍。Core ML支持所有主要的神经网络:深度神经网络(DNN)、递归神经网络(RNN)、卷积神经网络(CNN),除此之外,它还支持SVM(支持向量机)、以及线性模型和树集成。在Core ML的支持下,开发者可以把训练完成的机器学习模型,封装进App之中。苹果强调用户隐私的一贯风格,在Core ML中也有承袭。Core ML让所有的机器学习计算都在iOS设备本地进行。除了能支持超过30层的深度学习模型之外,Core ML还支持Tree ensembles,SVM和广义线性模型。Core ML还能无缝切换于CPU和GPU之间,以提供最强的性能和效率。目前Core ML提供视觉和自然语言两个API。顺便说一句,苹果还为开发者推出了AR开发工具包ARKit。Siri在iOS 11中,Siri得到了一次大升级。早在上个月,就有传闻称苹果要让Siri支持更多的App,从只能假装陪你聊天、用用iOS的原生功能,到可以操作你手机里安装的App。传闻实现了,苹果在WWDC上宣布,Siri支持一系列第三方应用,包括微信,这个功能,叫做Siri Kit。不过,苹果怎么会被传闻完全说中。除了支持第三方应用,Siri还有更厉害的招数:更自然的语音、实时翻译、更精准的预测。苹果负责技术的副总裁Craig Federighi说,“我们用深度学习为Siri打造了更自然、更富有表达力的声音。”紧接着,他播放了英文版Siri的声音,男声版就讲了本文开头的那个冷笑话。不知道母语者感觉如何,量子位的母语不是英语,听起来,的确感觉与真人差异不大。不过,在后来展示实时翻译的时候,他又让Siri说了一下中文,听起来虽然比现在有很大提升,但终究还是像个机器。实时翻译,就是在你用英语问Siri“How do you say … in Chinese?”,Siri就会立刻把你的话翻译成汉字显示在屏幕上,还要用中文给你念一遍。这个实时翻译功能首先支持英译汉、西、意、法、德。另外,Siri借助机器学习,还能更了解用户的兴趣,可以据此推荐新闻、帮用户回复消息,或者根据用户在浏览器中完成的订票行为,要求帮用户在日历上添加事件。
123下一页> |
|