飞速星空
资讯首页>> 硬件工具免费下载
5种将为IoT带来深远影响的机器学习趋势
[更新:2018-02-19 06:59:40] [浏览:45次]

来源:engineering.com

作者:Shawn Wasserman

物联网智库 编译

转载请注明来源和出处

------ 【导读】------

5种机器学习的趋势将为IoT领域带来极大的影响,IoT与机器学习的结合将创造崭新机会。

物联网IoT虽然提供了一种全新的方式用于收集数据、追踪产品和分析数据,但是在IBM的一份报告中显示,IoT收集的数据中有90%并没有被有效利用,成为数据“死海”。

幸运的是,与IoT同时发展的机器学习等新兴技术方兴未艾,有望改变数据的这一现状,将其变为有效信息,服务于IoT生态系统。通过将IoT采集到的大数据汇总到机器学习算法中,工程师可以在开发周期、生产操作、产品制造等方面实现明显提升。

德勤在加拿大的研究部主管Duncan Stewart认为,有5种机器学习的趋势将为IoT领域带来极大的影响,IoT与机器学习的结合将创造崭新机会。

1. 边缘侧机器学习正在兴起

图:Apple A11 SoC具有内置的神经网络,将机器学习功能加载于智能手机

机器学习芯片的低功耗和边缘化等趋势,必将影响IoT领域。Stewart指出,2018年即将发布的大多数旗舰手机,都将包含内置神经网络功能的芯片。

虽然这些芯片不会像它们基于云端应用的“兄弟姐妹”那样功能强大,但完成基础性的机器学习任务仍可轻松胜任。

在IoT世界中,一个新的概念越来越流行——边缘智能。边缘智能指物联网的每个边缘设备都具备处理数据的能力,而不是简单将数据储存在云中。IoT将深度神经网络部署到边缘设备上,以减少带宽限制,消除网络延迟的影响。

“随着智能手机中AI技术的普及,它有望在几年之内移植到IoT领域,”Stewart说。“我们已经看到高通推出了一些智能机器学习芯片,并在智能路由器、防火墙、无人机和物联网设备中产生了不错的应用效果。”

当然,机器学习芯片引入物联网设备的最大障碍将是芯片的价格、功耗和尺寸。关于价格方面,Stewart认为虽然在云端完成机器学习的成本正在日益降低,但是将机器学习芯片添加到物联网设备上,无疑将会花费更少的成本,而且与云端的开销不可同日而语。

Stewart指出,这意味着当工程师们使用机载了机器学习功能的芯片设计物联网设备时,它在成本可控的同时还可满足时间低延迟等至关重要的功能。“我们以无人机举例,电网监测无人机在电力线附近飞行,”Stewart说,“这些无人机需要实时看清路线,并毫秒内做出响应。在这种场景下,将机器学习芯片添加到无人机上将是一个非常正确的产品决策。”

至于功耗和尺寸问题,很多公司正在持续研究并取得了不错的进展,以便使机器学习芯片更加适合IoT应用需求。

2. 数据科学家将更多精力投入IoT本身

数据科学家现在可以更加专注于IoT应用本身,用更多时间倾听和解决业务问题,而不必被繁杂的数据处理耗费过多精力。自动化的数据清理软件将会协助数据科学家们完成繁琐和枯燥的相关数据清洗工作。

Stewart认为另一种机器学习趋势也将影响到物联网市场,那就是许多繁琐的数据任务将会经由软件自动完成,从而释放数据科学家的大量精力。

诸如清理被采集到的各种数据、消除微不足道的错误和抛弃无效的垃圾数据,这些任务往往构成了数据科学家的日常工作。它们的特征非常明显,重复、耗时,而且容易出错,具备交给程序自动处理的可能性。

“80%的数据清洗工作可以被自动化,”Stewart说,“这并不意味着减少对于数据科学家的需求,相反,数据科学家不必在重复的工作中浪费时间,从而将精力专注于IoT应用本身,创造进一步提升价值的成果。”

“将机器学习引入到物联网中的局限在于,这些数据科学家的大部分时间被大量的琐碎工作吞噬,难以进入IoT的‘腹地’。”Stewart补充说,“但是随着大量的重复工作被自动化的软件完成,数据科学家将在IoT领域发挥更大作用。”

3. 合成数据让IoT机器学习功能开发更为快速

IoT工程师们还应该掌握的另一个趋势是合成数据,也称为人造数据。由于合成数据的存在,对于机器学习算法的数据需求已经被极大降低。

为了创建机器学习算法,工程师需要大量的现有数据,他们往往先从IoT系统中持续采集数据构建资源库。但是现在这一工作将会变得更加容易。

例如为了更好的完成分类识别任务,我们就需要给系统提供尽可能多的训练图像,如果我们手头上拥有的图像不多,就需要人工合成更多的数据。

Stewart解释说,利用合成数据,工程师可以使用与真实数据高度相似的数据训练机器学习算法。“将合成数据与真实数据混合在一起,当数据量很少或者难以积累时,将会让IoT领域的机器学习功能开发变得更加快速。”Stewart说。

这意味着工程师只需要构建合成数据,就可以启动他们对于机器学习算法的训练,从而将相关成果迅速引入到物联网系统。

4. 新型机器学习硬件节省更多成本

图:Altera的Stratix IV FPGA已被用于数据处理应用

Stewart指出,现在一些新的机器学习芯片正在让云端的机器学习变得更加实惠。

以往云端的机器学习由图形处理单元(GPU)完成,毕竟相比于CPU的顺序处理,GPU的并行处理能力更为适合机器学习。

然而,随着现场可编程门阵列(FPGA)和专用集成电路(ASIC)的发展,它们越来越受到希望扩展机器学习能力的各类云计算中心关注。虽然GPU仍是当前的机器学习市场的主流,但FPGA、ASIC正在机器学习领域崛起。Stewart认为FPGA与ASIC有助于降低机器学习应用的功耗,并提升系统的反应能力与灵活度,因此可望扩大机器学习的应用范围,这些新型硬件工具将使机器学习变得更加容易也更实惠。

根据德勤的一份年度预测报告指出,2018年FPGA与ASIC将在机器学习领域占据更重要的地位。到了2018年底,数据中心内约有25%以上的机器学习工作负载将是由FPGA与ASIC芯片负责处理,而目前这些工作多是交由GPU与CPU执行。

德勤预测,2018年企业数据中心将会使用到80万片机器学习芯片,其中有60%为GPU,FPGA与ASIC则可分别攻下20%与10%的全球市场。到2022年,机器学习加速市场将可达到45亿~91亿美元的市值。

一些较早开始使用FPGA、ASIC芯片加速的用户,主要是将它们运用机器学习的推论任务上,但不久之后,FPGA、ASIC芯片在模块训练工作上也将能有所发挥。

“对于使用机器算法的金融机构来说,这些硬件成本的改进可能微不足道。”Stewart说,“但是对于物联网应用来说,渐进式的硬件成本降低可能聚合成一个可观的投资回报率提升。随着云端机器学习成本的降低,投资回报率每增加一个百分点,都会极大提升物联网企业拥抱机器学习的热情。”

随着硬件成本的降低和机器学习ML功能开发的便利性提升,Stewart认为以前困扰物联网行业的ML投资回报率问题终将被解决。

5. IoT不受机器学习黑盒限制的影响

现在的机器学习,尤其是深度学习中,有很多模型的使用都类似黑盒,因为你只能看到输入和输出,而大部分人对中间层并不能说出一个所以然来。

我们知道深度学习也分为监督学习和无监督学习。所谓监督学习,简单来说你知道你想要的结果,比如分类,比如判断对错,你对输出是有预见的;所谓无监督学习,是指你不知道你想要的是什么,只是希望通过模型,从一堆数据中挖出某些有效信息来。对于无监督学习,这更像DNA的随机组合,你不知道最终会得出什么。

关于机器算法局限性的讨论不幸成为阻碍该技术在许多行业中发挥作用的一个问题。人类并不了解机器学习算法的工作原理,我们只是知道如何构建它们。我们收集数据、处理数据、分析数据,在训练周期中将数据递归的呈现给神经网络,然后实现我们认为可以进行推理的任何神经网络。

不仅深度学习Deep Learning解释起来特别困难,其他机器学习技术也很具有挑战性。这些模型十分晦涩难懂,以至于人们很难去理解,尤其如果他们不是人工智能方面的专家。

可解释性不只是对证明决策非常重要,它还可有助于防止事情出错。因此,提供解释可帮助研究人员使他们的系统更可靠,并阻止那些依赖它们的人犯错误。

在应用机器学习的物联网相关产业,例如智能医疗、智能工业和智慧城市,这个问题也很重要。Stewart解释说:“没有相关解释或推理,领域内专家不会相信所取得的成果。这就是许多领域内专家拒绝采用机器学习或深度学习的主要原因。但是对于物联网领域这一情况正在逐步改善,一方面工程师们正在致力于打开机器学习的黑盒子,另其能够解释自己的行为;另一方面由于很多物联网产品、设备本身就具有黑盒子的特征,最终用户对机器学习黑箱的畏惧情绪和接受程度与其他行业相比已有极大改观。”

往期热文(点击文章标题即可直接阅读):

《共享单车上的智能锁,做出来有多难?》

《认知计算、区块链IoT、物联网安全…看懂的人将控制未来》《【重磅发布】2017-2018中国物联网产业全景图谱报告——物联网对产业深度变革已开启》

《【重磅】物联网产业全景图谱报告,首开国内IoT产业二维视角全景图之先河》

《一幅漫画告诉你:除了WiFi,蓝牙,最近火爆的NB-IoT能干嘛?》

《一幅漫画告诉你:NB-IoT背后,还有一个大家都在说的LoRa是什么?》

推荐内容: