+-
将AI推向边缘(第一部分):AI在边缘的关键考虑

与ZEDEDA的生态系统副总裁兼LF Edge董事会成员Jason Shepherd进行问答

这些内容最初是在ZEDEDA Medium博客上发布的,请访问他们的网站了解更多类似的内容。

这篇由两部分组成的博客提供了更多关于人工智能市场的热门话题--边缘。为了进一步讨论这一新兴领域,我们与生态系统开发副总裁Jason Shepherd坐了下来,讨论了他对前沿人工智能的潜力、广泛采用的关键考虑、实践中的前沿人工智能的例子以及未来的一些趋势的看法。

那么,Jason,你是如何定义边缘AI的?你接受这种实践的理由是什么?

在边缘的人工智能,意味着我们将至少一部分流程从集中的数据中心移出,到更靠近数据的来源和在物理世界中做出决定的地方。这一趋势是由设备和数据的指数级增长驱动的,原因包括降低延迟和网络带宽消耗,确保自治、安全和隐私。如今,AI的边缘组件通常包括在数据源的本地部署推理模型,但即使这样也会随着时间的推移而发展。

与在云中部署AI相比,在边缘部署AI的关键考虑是什么?

首先,重要的是要考虑到,在云中部署人工智能的许多一般考虑都延伸到了边缘。例如,结果必须在现实世界中得到验证--仅仅因为一个特定的模型在试验环境中有效,并不能保证当它在实践中大规模部署时能成功。只搜索“AI吉娃娃松饼”为一个例子,可以看到在现实世界检测类似物体的挑战!

另一个日益严峻的挑战是如何应对深度造假(Deepfakes)的泛滥。深度造假可能会影响企业业绩,在社交媒体上引发虚假情绪,甚至更糟。此外,发展合乎道德的人工智能和数据信任,也将是确保人工智能以负责任和有影响力的方式部署的关键,无论它是在边缘还是在云。

谈到边缘时,首先必须了解从边缘到云连续体(continuum)的关键考虑因素。在过去的几个月里,我们与Linux基金会的LF Edge社区密切合作,基于内在的技术和后勤权衡为边缘计算创建了一个全面的分类。这种分类将在下周发布的技术白皮书中得到详细介绍,该白皮书还提供了LF Edge组织及其当前项目的概述--所有这些项目都在寻求为边缘计算和物联网建立一个开放的、协调的基础。

我们认为,这篇白皮书将有助于澄清当前围绕“边缘”的市场混乱,因为大多数现有的分类都偏向于一个市场视角--例如,电信、IT、运营技术(Operations Technology,OT)、消费者--并且在类别之间有模糊的分解。同时,LF Edge分类法,根据硬性折衷将连续体细分为顶级层和子类别,例如,某个硬件是否具有可用于以虚拟化或容器形式支持抽象的资源,相对于它所服务的用户/进程是在LAN或WAN(针对时间紧迫的工作负载和敏感工作负载的计算将始终部署在LAN上),以及计算硬件是部署在安全数据中心中还是可物理访问。

该分类还试图理解跨云、电信、服务提供商、IT、OT、物联网、移动和消费者领域的利益平衡,为每个市场提供一个基础,在其上构建自己的特定语言。下面的图表是白皮书的预览,突出显示了顶层的层次、子类别和相关的总体趋势。

一个关键的概念是硬件和软件在你接近物理世界的时候都会变得越来越复杂,因此在边缘部署AI会带来更多的挑战。首先,也是最重要的是适应各种硬件的异构性,包括外形因素和计算能力--这些设备可以像传递温度变化的受约束传感器一样简单,也可以像自动驾驶汽车的大脑一样复杂,后者基本上就是轮子上的数据中心。

一般来说,部署距离物理世界越近,资源就越受限。因此,在用户边缘部署AI模型与在安全、集中的数据中心部署相比,会引入许多不同的复杂性。尽管可以在整个连续体中应用许多相同的原则,如LF Edge白皮书所述,固有的技术折衷表明,在服务提供商的服务器级基础架构和本地数据中心边缘,以及在智能设备和受约束的设备边缘的日益受限制和多样化的硬件的工具集可能不完全相同。在物理安全的数据中心之外部署边缘计算和AI工具还引入了新要求,例如零信任安全模型和零接触部署功能,以适应非IT技能要求。

从IT和OT管理员,到开发人员和数据科学家的利益相关者,都需要强大的远程编排工具,不仅能够在该领域大规模部署基础设施和人工智能模型,还能够继续监控和评估系统的整体健康状况。我们在ZEDEDA的重点是帮助客户在物联网边缘上编排计算硬件和应用程序,物联网边缘是智能设备边缘在LF Edge分类中的一个子组件。传统的数据中心编配工具不太适合这些边缘,因为它们太耗费资源,不理解规模因素,或者预先假设与中央控制台的网络连接近乎恒定,而在远程物联网环境中通常不是这样。

你如何决定在边缘连续体的哪里部署AI模型?

在哪里训练和部署AI模型的决定,可以通过平衡六个方面的考虑来决定:可伸缩性、延迟、自治、带宽、安全性和隐私。

就可伸缩性而言,在一个完美的世界中,我们只需要在云中运行所有的人工智能工作负载,计算是集中的,并且易于扩展,然而,集中化的好处必须与其他可能导致分散的因素相平衡。例如,对于延迟关键型用例,我们将依赖边缘AI,以及必须具有自主性,例如,无论你的宽带网络在正常情况下有多快、多可靠,你永远都不会在云里做出打开汽车安全气囊的决定。一般而言,关键延迟应用程序将利用接近流程的边缘AI,并在白皮书定义的“智能和受限设备边缘”上运行。同时,由于规模因素,对延迟敏感的应用程序通常会在服务提供商边缘和云中利用更高的层。

就带宽消耗而言,跨越用户和服务提供商边缘的AI解决方案的部署位置,将基于带宽成本的平衡(例如,陆线、蜂窝、卫星--费用不断增加), 所涉及的设备以及集中化带来的可伸缩性优势。就带宽节省而言,边缘具有优势,用例包括涉及计算机视觉或振动测量的任何事物--两者均涉及连续的高带宽数据流。对于这些用例,分析通常将在本地完成,只有关键事件才会触发到后端系统。例如,出现类似“门口的人看起来有些诡诈”或“请发送技术人员,这台机器将要发生故障”的消息。

当涉及到安全问题时,边缘AI将被用于安全关键的应用,在这些应用中,泄漏会造成严重后果,因此云连接要么不被允许,要么只能通过一个数据单向管道(data diode)启用,比如监控核电站的流程漂移。最后,人工智能将越来越多地部署在隐私敏感应用的边缘,在这些应用中,必须先剥离个人识别信息(Personally Identifiable Information,PII),然后将一部分数据拖到云上进行进一步分析。

考虑到所有的好处,边缘最终会取代云吗?

不。重要的是要记住,边缘不会取代云,而边缘和云资源将作为更广泛的连续体的一部分一起工作。我们将继续在资源密集型和需要集中的任务中使用云,比如用大数据集训练人工智能模型,用医学研究中的推理模型识别大数据集中的模式,以及用于呼叫中心聊天机器人。与此同时,一个同时依赖于边缘和云的人工智能工作负载的例子是智能扬声器的自然语言处理(例如,Google Home,Amazon Echo)。这一过程的一部分被转移到这些受限的设备上,但云将继续用于更复杂的语音分析和返回搜索结果。

总结

在这一部分中,我们讨论了部署边缘AI时的一些关键定义和注意事项。最终的考虑是在今天适当地设计架构,以便能够在任何地方部署人工智能,因为我们甚至还没有触及这个强大的技术在未来将带我们走向何方的表面。

请继续关注明天本系列的第二部分,我们将讨论一些重要的AI边缘用例,关于规模的额外考虑,以及发展趋势。

点击阅读网站原文。

为边缘计算构建一个开源框架。

LF Edge是一个伞形组织,旨在建立一个开放的、可互操作的框架,用于独立于硬件、硅、云或操作系统的边缘计算。通过将业界领袖聚集在一起,LF Edge将为硬件和软件标准以及最佳实践创建一个共同的框架,这对维持当前和未来几代物联网和边缘计算设备至关重要。

我们正在促进工业制造、城市和政府、能源、交通、零售、家庭和建筑自动化、汽车、物流和医疗保健等多个行业的合作和创新,所有这些都将通过边缘计算得到改变。

Linux基金会是非营利性组织,是技术生态系统的重要组成部分。
Linux基金会通过提供财务和智力资源、基础设施、服务、活动以及培训来支持创建永续开源生态系统。在共享技术的创建中,Linux基金会及其项目通过共同努力形成了非凡成功的投资。扫描二维码关注LFAPAC微信公众号。
image