让人工智能应用变得简单

让人工智能应用变得简单

Make AI Applications Simple

企业用户对视频AI硬件平台的选择原则及潜在陷阱

发布日期:2020-03-24 10:03:50 浏览次数:146    



企业用户对视频AI硬件

平台的选择原则及潜在陷阱


作者:范柘



视频AI进入爆炸性增长, 各种硬件平台林林总总,“如何针对自己的需求选择合适的硬件平台”已成为摆在企业信息部门面前的第一个任务。


所有的视频AI都是基于硬件加算法。通常算法不会因为硬件平台改变,但是硬件平台选择非常多,更新换代也非常快,为了简化起见,将硬件简单按照“固化”程度由上到下分类如下图:



图表 1: 硬件固化层次图



云部署

云最大的价值在于“削峰填谷”,实现数量众多且不同时段的计算需求共享同一套硬件,从而降低硬件成本,降低维护难度。

潜在陷阱


01 带宽费用  

视频传输占用巨大带宽。互联网上超过90%的带宽占用是视频。如果将各个点位的视频传输到集中机房,租用光纤带宽的费用通常在项目预算中占比可观。


02 初始成本高  

在没有运转任何业务的前提下,云自身的运转需要消化算力。 例如某知名品牌虚拟化的算力成本在总算力的10%左右。


03 安全性  

云通常都具备完善的安全机制以隔离不同用户、不同业务之间的信息流。但用户要考虑自身网管力量水平。目前对安全要求非常高的行业,例如公安,银行通常不允许上云。




服务器


在机房中部署服务器,并使用GPU服务器来处理视频分析任务是目前常见的使用形式,也是最灵活的部署方式。通常对用户需求的响应最快,同时各种业务流程对接集成的难度最低。如果采用总公司,分公司等层级部署形式,带宽的费用通常不是大问题。




边缘计算


以ARM架构为代表的嵌入式设备,以及在相机内部利用FPGA甚至专属图像处理芯片进行视频分析的智能相机,是目前时下流行的一种产品形态。通常被统称为边缘计算。这种计算形式功耗低,可以适应现场相对恶劣的环境。但是市场上对于边缘计算有些明显误解需要澄清。



误读1

边缘计算降低带宽费用。由于在现场已经进行了分析,所以带宽费用大大降低,并提升了计算效率。 这个观点很流行,但是明显误导。

对于大多数企业而言,视频数据必须长时间存储。现场通常不具备存储条件,所以视频数据需要回到中心机房存储。所以现场处理数据无法节省带宽。


中心机房的计算压力降低是以已经付出的边缘计算代价为前提的。所以计算效率提升是个伪命题。


边缘计算和中心机房服务器平台之间的计算效率对比由于产品种类太宽,甚至有重叠,所以不具体比较。但是从整体而言,边缘计算从嵌入式基因演化而来,强调低功耗,宽温适应性,这通常是以牺牲计算效率为代价的。另外边缘计算不具备中心计算节点资源调度、削峰填谷的前提条件,不能方便地实现多传感器融合、集成,所以边缘计算通常在计算效率上是低的。


误读2

边缘计算是新技术,所以更先进。

硬件平台演化的确很快。但是对于所有解决方案而言,归根结底都是硬件加算法。尤其是算法是业务的本质。所以算法的演进对用户的价值更大。

 

视频AI算法日新月异。边缘计算由于硬件“固化”的影响,通常响应速度慢于通用服务器上的算法市场化速度。边缘计算最大的开发成本来源于工程化,这对一些可以标准化的功能是合适的。

 

对于编解码这样已经形成国际标准的应用,以及车牌识别、人脸门禁类的场景固化,目标单一的应用场景,算法的提升空间有限。它应该固化到SOC,甚至芯片的层面上去。但是像动态人脸识别这样的标志性应用,目前还存在着大角度识别困难,对于大底库误报率高等问题。这方面的研发依然活跃,更新更好的算法迭代很快。考虑到嵌入式开发,流片的高成本,厂家和用户在选择硬件平台的时候应该谨慎。




标准化陷阱


对于没有国家、国际标准的应用,或者对于解决方案尚未达成行业共识的,使用边缘计算手段要考虑标准化问题。有些厂家习惯利用非标产品绑定用户,造成未来产品选型升级的被动。




总结

对于标准化,成熟的应用场景,例如车牌识别、人脸门禁等应该采用边缘计算等“硬”的硬件。对于不断发展的活跃的领域,对于集成调度有需求的企业最好选择集中式的硬件平台。