摩尔庄园闪光币,摩尔庄园闪光兑换
7 月 29 日,新一届 EmTech China 全球新兴科技峰会暨 50 家聪明公司发布仪式在无锡太湖饭店盛大开幕。本届峰会由无锡市人民政府指导,无锡市滨湖区人民政府、《麻省理工科技评论》中国主办,无锡山水城管理委员会、DeepTech 承办。
本次峰会以技术与商业结合的路径为主线,为人们提供最前沿科技发展趋势的近距离视角和详细解读。
50+位全球顶级科技大脑围绕颠覆未来的生物技术、“碳”索未来、“芯”制造、无限互联、量子计算、未来空间、未来基石等七大主题展开主题演讲和圆桌讨论。
IEEE Fellow、国家杰青、铂岩科技 CTO 温江涛教授在“新兴科技与未来产业”环节做了精彩的开幕式演讲。
温江涛教授表示,目前 IT 行业面临许多挑战。摩尔定律显然已经走到生命周期的晚期,今天算力的计算成本不可能飞速下降。通用处理器的能力不是 18 个月提高一倍,而是变成每年提高 3%。
在这种情况下,比如制造、汽车甚至娱乐业,过去 20 年的发展都是由计算去驱动的,它们未来都将面临非常大的挑战。
“此前有个登纳德缩放比例定律(Dennard scaling),说的是半导体技术特性和发展保证了单位面积的半导体功耗基本保持恒定。即单位面积容纳晶体管数目不断提高,功耗不变。
但该定律十几年前已经失效,换句话说今天芯片能量的密度已经达到了反应的水平,密度不可能进一步飞速提高了。”温江涛教授提到。
能耗已经成为当前制约IT产业的瓶颈之一。而传统的存储、计算和带宽瓶颈也限制了芯片的进一步发展。
为了解决这些问题,最近几年,很多公司的解决方案是不去做通用处理器,而是做针对某一领域的专业处理器,致力于提高某一应用领域里的算力。
但这些处理器的架构有一个重要的切线或者挑战,这个挑战在于今天所有用 DSA 架构做的计算基本上只适合于非常规整的计算任务。
就像所有人排成整齐队列统一往前走很容易,但是排队的过程是非常复杂、非常耗时的。
温江涛教授表示:“做这样的处理模式必须知道在某一个时刻要到达什么样的位置和需要处理什么样的数据,数据从什么地方来,数据处理之后到什么地方去。
而视觉和视频的处理恰好不满足这样的特性。处理的内容、复杂度同输入有非常大的关系。想象一个停车场出现一些意外状况的时候,在停车场空旷的时候,处理复杂度非常低,一旦监测到内容的时候,需要做什么处理,处理的复杂度随之而变化提高。”
然而,和许多数据库的任务,如银行交易数据处理不同,很视觉处理都是允许有调升的。对一个视觉任务的观测,可以在很模糊或切线的照片里面看到有没有需要判断视觉的内容。
根据这样的特点,提出所谓第三代的视觉感知,能够大大提高未来的机器视觉效率。
那么,第一代和第二代的数字传感器是什么?
第一代就是 CCD(Charge Coupled Device,电荷耦合器件)图像传感器,它的架构每一个像素的电路比较简单,所以用于感光镜片的面积比较大,所有的光电转换之后的信号传到芯片的边缘,做模式的转换读取出来。
由于放大的电路集中在芯片的边缘,一致性非常好,所以传统上图像的质量非常好,但成本昂贵,非常难于集成,需要有特殊的工艺。目前世界上只有几个公司掌握比较先进的 CCD 传感器制作技术。
第二代的 CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)传感器在 CCD 的基础上做了很大革新。它的感光电路每一个像素里面集成了放大的和智能处理的电路。
由于感光面积比较小,信噪比降低,而且可以集成很多智能的功能。成本和功耗的优势非常大。工艺可以兼容传统制造工艺,今天做的标清传感器,工艺改进的时候可以做成高清、超高清等等。
不过,据温江涛教授表示,上面两类图像传感器基本上是依据人眼观看设计的,而未来大量的视觉感知输入不是给人眼观看的,是给算法,给机器看的。而目前给人和给机器看的摄像机没有区别。
目前机器视觉领域里面,“感”(图像传感器完成)和“知”(其他电路辅助完成)两者是分离的。今天的解决方案,一方面有很多专注于做 CMOS 传感器的公司,获取了大量 CMOS 原始数据。但这个数据人眼看不懂。
很多图像信号的处理,包括颜色的差迟、降噪各方面的处理需要很多算力、功耗,这是一个非常复杂的过程,在这之后做视频的压缩传输,再去通过一个复杂的系统做机器学习,再做一些专用的,使用 DSA 架构的芯片。
这个过程有大量重复、不需要的计算,对资源是一种浪费,也提高了成本。尽管通过各种低碳方式能一定程度降低从采集到存储等方面的成本,但是无论这个成本如何降低都不可能是零。最好还是去避免能源的浪费,也就是去避免做一些不需要的计算。
追踪溯源的话,在上世纪 90 年代实际上用模拟电路就可以实现很多今天熟知的人工智能机器视觉功能。
假如我们把这样的一些技术同现有的 CMOS 图像传感器架构深度结合的话,就可以实现低成本、低功耗、低延时机器智能的功能。
另一方面,今天的 CMOS 图像传感器基本上都是数字电路,在一个数字芯片里边大概有 30%-40%,甚至更多的功耗是用于维持芯片的时钟,这个时钟在各个地方都需要同步。它在芯片里的频率是最高的,所有其他部分都以这个节拍为基准。
即使芯片什么都不做,时钟还是要不断开关,不断地充电放电,所以时钟的频率降下来,对整个处理功耗的降低是有非常大优势的。
如今,当去分析今天人工神经网处理输入的分辨率和它计算的复杂度时可以看到,在最贴近像素一级的时候,分辨率是最高的,即它需要的时钟是最高的。
假如能把这一部分的数字处理变成模拟计算的话,那对降低整个芯片的功耗有非常大的影响,那后面虽然计算的复杂度会比较高,但是它用到的数字分辨率是比较低的,这部分逻辑很适合用数字电路去处理。结合模拟和计算深入(在像素一级)整合感知的视觉处理架构一定是机器视觉的未来。
“我们今天能够做到的一些极限功能,可以在人眼都看不到的一些非常复杂情况下,实现机器视觉的一些功能。比如说在极低光的场景下实现对目标的跟踪、识别、导航,还可以应用于超声,太赫兹成像等领域,有重大而广泛的应用前景。对于被动红外、被动太赫兹成像等应用领域也有重要意义,”温江涛教授说。
极低光功能适用于很多需要全天候工作的应用场景,此情况下很难做补光。它需要颜色的信息,不能用红外、闪光的方法,全天 24 小时运行也要求成本不能太高,因此传统的一些解决方案很难满足这些要求。
在一项实验中,用专业级、电影级的摄像机(机身大概 20 万美元、传感器成千上万美元)拍到的输入信息,仍然难以完成任何机器视觉的功能,很多重要信息都已经丢失了,也难于去做低光增强、降噪等处理,对处理的能力和功耗都有更高的要求。
温江涛教授说道:“以一个非常便宜、小的传感器(大小为专业级的 1/20)作为对比,它的信噪比极低,同样输入的形式下,用我们现在的架构,就可以恢复出更多的边缘,能够完成更多的机器视觉功能。”
除了低光场景以外,还可以满足很多其他恶劣光照条件下的应用,比如下雨的夜晚,有雾的夜晚等情况。
基于现有的摄像机、神经网络算法(有人提出了低光增强的算法、去雾算法等等),这些解决方案往往只能适合于某一种特定的应用场景。
若将只解决特定应用场景的方案在一个自动驾驶的系统里去做部署,需要很多不同的网络和更多的芯片面积等,成本也随之大大提高。
“但是用我们的系统,就是一个网络、一个芯片可以解决更多的问题。索尼有一款号称是世界上第一款 AI 图像传感器的芯片,售价极高,很多行业用不起。我们的解决方案除了有它所有特点以外,处理能力更强、计算复杂程度更低、应用场景更多,功耗成本是它的十分之一甚至更低。在现有 CMOS 图像的领域里都可以使用。”温江涛教授补充说。
他还提到:“我们提出了一个 Smlle 概念,如生命一样,在环境里感知学习,自主地适应环境,同时在环境里面获得能量。我们的 VPU(视觉感知单元,Visual Perception Unit)有传统结构不能比拟的优势,未来希望做到感、知、行的统一。”
如发现本站有涉嫌抄袭侵权/违法违规等内容,请<举报!一经查实,本站将立刻删除。