基于边缘计算视频监控
基于边缘计算的新型视频监控系统
摘要:面向公共安全领域内的视频监控系统主要应对违法犯罪及社会管理等公共安全问题。传统视频监控系统具有前端摄像机内置计算资源较少、数据量较大、传输带宽延迟较高、目标跟踪效率较低等不足,为此,需构建基于边缘计算的新型视频监控系统的软硬件服务平台。本文主要从针对视频监控的边缘计算系统、基于边缘计算的视频监控系统协同处理、基于边缘计算的摄像机网络目标跟踪以及基于边缘计算的突发事件处理等方面来介绍边缘计算在视频监控系统中的应用及其优势。
背景介绍
视频监控系统主要用于视频处理、目标查询和人员跟踪等方面,并逐渐成为城市公共安全的重要保证。基于传统视频监控系统前端摄像机所采集的视频分辨率较高,视频数据量较大,现有智能监控系统的视频处理能力不足,传统云模式视频监控系统的计算和传输带宽负载较重。
现有摄像机存在计算能力以及上传数据的时延和带宽等不足,造成目标信息检测漏检较大和检测效率低效等问题。此外,视觉目标跟踪通常是对摄取的图像或视频进行分析计算,识别与跟踪场景中的目标,如何构建基于边缘计算的多摄像机组成的摄像机网络,以实现监控范围大、全方位的监控系统,克服单摄像机容易受到复杂背景、光照变化等局限,成为监控系统的研究热点之一。
边缘计算指从数据源到云计算中心数据路径之间的任意计算资源和网络资源,实现数据的就近处理方式。边缘计算的基本理念是将计算任务在接近本地数据源的计算资源上运行 [1]。边缘计算可以实现对视频数据传输流过程中的本地化处理,为视频监控系统带来低时延和高效资源利用性等优点,可以很好地用来解决现有视频监控系统所遇到的技术挑战和问题。基于边缘计算的新型视频监控系统较好地满足了这些公共安全方面视频数据处理实时性、完整性等需求。
本文主要阐述面向视频监控的边缘计算系统,本文提出边缘计算在视频监控系统中的应用及其优势,从面向视频监控的边缘计算系统、基于边缘计算的新型视频监控系统协同处理、基于边缘计算的摄像机网络目标跟踪以及基于边缘计算的突发事件处理等方面来介绍。
面向视频监控边缘计算系统
现有方法的问题
随着城市规模扩大所带来的公共安全问题越来越受到重视。传统城市安全视频监控系统[4]前端摄像机内置计算能力较低,以边缘计算和万物互联技术为基础的新型视频监控系统是未来发展趋势。
智能边缘视频终端解决方案
针对海量视频数据,云计算中心服务器计算能力有限,为此:
(1)构建基于边缘计算的视频预处理技术,去除视频图像冗余信息,使得部分或全部视频分析迁移到边缘处,由此降低对云中心的计算、存储和网络带宽需求,提高视频图像分析的效率;
(2)构建基于行为感知的边缘预处理功能,实现视频数据弹性存储。根据行为特征决策功能,实时调整视频数据,既减少无效视频的存储,降低存储空间,又最大化存储“事中”证据类视频数据,提高视频数据存储空间利用率。
利用边缘计算模型,将具有计算能力的硬件单元集成到原有的视频监控系统软硬件平台上,实现具有边缘计算能力的新型视频监控系统。在边缘计算模型中,计算通常发生在数据源的附近,即在视频数据采集的边缘端进行视频数据的处理。一方面,基于智能算法的预处理功能模块,执行模糊计算,对实时采集的视频数据执行部分或全部计算任务,这能够为实时性要求较高的应用请求提供及时的应答服务,Sun等人[7]提出基于边缘计算的视频监控系统内容可用性研究,内容的可用性包括静态故障及动态内容两个方面;另一方面,需要设计具有可伸缩的弹性存储功能模块,利用智能算法感知监控场景内行为变化,实现较高的空间存储效率。
基于边缘计算的视频监控系统协同处理
现有方法的问题
在目前的视频监控系统中,绝大多数摄像机并不具备车辆识别功能,通常只根据少量从高速公路等关键路口采集的车辆信息,来初步判断车辆的路过时间,并以此为起始点,人工搜索周边摄像机,该方法追踪效率低下且无法达到实时跟踪。此外,同时追踪多路的视频流,会加剧网络的负担,导致延迟和丢包[8]。
警报助手(A3)解决方案
边缘计算将计算推至靠近数据本地端,进而降低了数据传输和带宽。随着一些车辆识别算法的成熟,使用普通摄像机的数据对车辆进行实时的跟踪,成为一种可能。如目前公共交通车辆[11](如出租摄像机,家用车辆的行车记录仪)。因此提出了一种利用摄像机周边的边缘计算设备,安珀警报助手(A3)来实时追踪车辆。
利用静态和移动摄像机周边的边缘设备,安珀警报助手对摄像机的视频数据进行分析,实时跟踪特定车辆的应用。同时,该应用还可以自定义跟踪策略,以优化参与追踪的节点数量,提升系统效率。
整个系统主要基于烟花模型编程框架,根据功能将系统分为三种角色——任务发布者、任务接收者和数据处理节点,其中任务发布者供警察使用以提供追踪任务的管理,任务接收者用于接受任务、扩散任务、获取视频流以及部分任务处理,而数据处理节点为一群和任务接收者相近的纯计算节点。实验证明A3系统具有较好的易部署性、高效性和追踪实时性。
基于边缘计算下摄像机网络目标跟踪
现有方法的问题
视觉目标跟踪是计算机视觉领域的一个重要分支,其主要任务是通过对摄取的图像或视频进行分析计算,达到对场景中的目标进行识别与跟踪的目的。基于多个摄像机组成的摄像机网络在扩大监控范围的同时也产生了海量视频数据,给视频的传输、存储以及实时目标跟踪应用,带来了极大挑战。若将视频都上传云中心,云中心将面临数据洪流的挑战 。需就近对视频进行处理,而现有摄像机端计算资源不足。因此,需针对大规模摄像机网络,以降低通信负载、计算负担和提高算法实时性为目标,提出适合大规模环境下目标跟踪的方案。
目标跟踪解决方案及实现
近来,边缘计算模型为该类问题的解决提供了新的思路[1],将数据处理本地化,有利于解决较高传输代价、带宽需求以及较长的响应延迟,解决目前大规模实时跟踪中的短板。如,当选择寻找或跟踪一个目标P,其初始位置可以通过常规的监控信息得到(如报警信息),记为(Px, Py)。为了能实时不间断地进行目标跟踪,需要协调周围其他摄像机参与跟踪,故以(Px, Py)为中心,半径为R的区域内所有摄像机组成摄像机网络。由于控制中心与目标P之间存在传输和计算延迟,因此用RP作为补偿半径。值得注意的是,RP的值与目标P的运动速度成正比。 如果服务延迟越小,R P的值就越小,因此有必要将计算前置。在时刻k,形成的紧急监控区域内,会涉及NC(k)个摄像机组成的网络,如图3所示。
在采集端增加视频处理的硬件单元,对采集到的视频信息进行复制,然后进行预处理(比如目标检测),这部分工作使用目前已有算法进行此项工作[16]。在得到目标位置后,摄像机将有用的信息传输给其邻居节点,同时接收邻居节点发送过来的信息,该节点将对接收到的信息和自身测得信息进行信息融合,从而提取有用信息,再将融合后的信息发送给邻居节点。在相邻时刻内完成多次类似的信息传输,就可以使得整个网络信息达到一致[17]。因此,可以融合各个摄像机的信息用分布式的方式实现全局信息共享。最后使用状态估计算法[18]组成鲁棒的目标跟踪系统。
基于边缘计算的突发事件处理
现有方法的问题
像Uber和滴滴打车等共享出行工具服务已经受到大众欢迎,并在日常生活中得到普遍应用。如何能有效保障旅客和司机的安全仍然是安全出行所遇到挑战。
共享汽车上主要存在两种人身攻击,司机被乘客攻击或乘客被司机袭击。为解决安全问题,滴滴公司采用脸部识别、行程共享、SOS呼叫等手段为行车驾驶提供安全保障。现有主要的安全状态判断和检测方案是在驾驶端采集,在云端判断和检测,然后将判断结果反馈给驾驶终端,但其实时性较差,在大规模车载设备中,其运行环境较不稳定、传输带宽的延迟较大、不利于实时处理突发事件。
为此,Liu等人提出了一种基于边缘计算方法的共享出行服务的实时攻击检测框架SafeShareRide,该框架可以检测危险事件的发生,而且检测效率实现了近乎实时性的效果。SafeShareRide主要由三个阶段组成,语音识别检测、驾驶行为检测和视频采集与分析。这三种阶段所采用的算法是基于开源的算法架构,测试实验证明了SafeShareRide具有较好的适用性。
突发事件处理方案及实现
SafeShareRide架构主要包括三个阶段的处理。具体而言,第一阶段使用语音识别的方法对车内的声音进行判断,主要关键词有“帮助”或“大声”等做判别。第二阶段是驾驶行为的判断。SafeShareRide可以从从车载诊断、智能手机的传感器上收集驾驶数据,根据车速的行驶速度、加速度和角速度等结果来检测异常驾驶行为。第三个阶段通过分析车载视频数据以确定车内是否有紧急情况。每次检测开始的时候,前两个阶段独立运行,以检测并捕捉车辆危险情况。当在前两个阶段检测到攻击时,第三阶段的视频采集和分析功能将被触发,并将所获取的车载视频以及前两个阶段的检测结果上传到云或边缘服务器。
总之,通过三个阶段的安全性检测,SafeShareRide可提供准确性较高、视频传输带宽需求较低的高精准突发事件检测服务。
视频监控系统在公共安全领域的应用越来越受到重视,基于边缘计算的新型视频监控系统为视频数据处理增加了更高的计算能力、更低的传输延迟以及更精准的处理能力。随着边缘计算系统架构的发展和定制化功能的完善,边缘计算能够更好地推动新型视频监控系统在公共安全领域更好地应用。