麻省理工学院初创公司开发出一种新型相机,可以在黑暗中看到(和拐角处)

博主:qwe123qwe123 01-30 31 0条评论

温馨提示:这篇文章已超过100天没有更新,请注意相关的内容是否还可用!

  

  

  今天的相机可以在光线充足且相机不移动的情况下拍摄出色的视频。但如果半夜在行驶中的汽车上尝试,事情可能会变得很糟糕。对于工程师来说,这是一个巨大的问题,他们试图制造出即使在天黑也能看到行人和道路标志的自动驾驶汽车。

  塞巴斯蒂安·鲍尔和特里斯坦·瑞典认为他们找到了答案。他们位于波士顿的Ubicept公司使用一种完全不同的数码相机,可以在最具挑战性的条件下拍摄出锐利的图像,甚至可以看到拐角处。

  鲍尔在德国卡尔斯鲁厄理工学院获得电子工程博士学位,他说:“我们认为这项技术将取代大部分传统成像技术。”“这是一种范式转变。”

  该公司的联合创始人瑞典人拥有麻省理工学院媒体实验室的博士学位,他说Ubicept系统在拍摄快速移动物体的清晰图像方面尤其出色,即使是在弱光条件下。

  Ubicept基于麻省理工学院和威斯康星大学开发的技术,鲍尔在威斯康星大学做博士后研究。这家公司的总部设在麻省理工学院下属的孵化器The Engine,专门为解决异常棘手的技术挑战的公司提供服务;去年夏天,它从风险投资中筹集了800万美元,其中一部分来自麻省理工学院的E14基金和威斯康星校友研究基金会。

  关键的进步是:Ubicept放弃了几乎所有数码相机都使用的CMOS(互补金属氧化物半导体)芯片技术,转而采用一种更新的传感器。

  CMOS相机传感器覆盖着数千个像素,这些像素根据光强被分配了电压。另一个芯片将这些模拟电压电平转换为经过处理的数字信号以产生图像。但是这种转换会产生降低图像质量的数字噪声。

  此外,CMOS芯片使用电子快门一次拍摄一帧图像。如果快门速度相对较慢,移动的物体看起来模糊。加快快门以防止模糊意味着更少的光线照射到传感器上。这会使图像太暗,尤其是在晚上。

  Bauer和Swedish选择了激光雷达系统中使用的单光子雪崩探测或SPAD传感器。激光雷达,即光探测和测距,利用快速的光脉冲来精确测量距离;许多新款iphone都采用了这项技术。

  SPAD传感器不需要快门,也不测量光的亮度。相反,每个像素会记录它是否被单个光子击中。然后,该系统可以计算各种光子到达之间的时间,以估计到目标的距离。

  Bauer和Swedish使用同样的原理来生成超清晰的图像。当光子进入相机并击中传感器时,软件计算出它们到达的时间,并利用这些数据绘制出物体的形状,并在屏幕上显示出来。通过一次测量一个光子,Ubicept相机即使在非常弱的光照条件下,甚至在相机移动时,也能生成清晰的图像。这是一个全数字过程,确保更高的图像质量。

  在一段演示视频中,该公司展示了夜间从一辆行驶的汽车上用标准摄像头和Ubicept摄像头拍摄的图像。Ubicept相机的图像要亮得多,可以看到标准相机看不到的树木和其他物体。过往的路标对普通相机来说只是模糊的;在Ubicept摄像机中,这些标志足够清晰可读。

  另一个令人吃惊的演示显示,一个人站在一个障碍物后面,挡住了摄像机的视野。不管怎样,摄像机还是发现了他,因为他身体反射的光击中了摄像机能看到的物体。这些光子从物体上反弹,进入相机的镜头。通过测量光子到达的时间,相机生成了人体的图像。

  鲍尔说,到目前为止,这一功能只在实验室进行了测试。但有一天,它可能会让一辆自动驾驶汽车刹车,因为它检测到一个孩子潜伏在两辆停着的汽车之间——这是人类司机看不到的危险。

  Ubicept不会独享SPAD相机市场。今年早些时候,日本摄影公司佳能(Canon)发布了一款售价2.5万美元的基于spad的相机,专为军事设施等高安全性应用而设计。佳能表示,这款相机的SPAD传感器可以在近乎完全黑暗的环境下拍摄彩色视频。

  位于Southborough的VDC Research的技术行业分析师Steve Hoffenberg表示,spad相机要想在成本上与目前的CMOS设备竞争,还需要很长一段时间,尽管这并非不可能。

  “CMOS传感器过去也非常昂贵,”霍芬伯格说。但他补充说,SPAD系统已经在工业应用中发挥了作用,比如在装配线上检查产品的缺陷,或者在机器运行时监控机器。“这种超高速捕获能力可能有很多用例,”他说。

  Ubicept的创始人对此表示赞同。他们的目标是工业自动化系统,以及汽车市场。即使自动驾驶汽车还有很长的路要走,但仍然会有对夜视系统的需求,它可以警告司机即将到来的危险。

  可以通过hiawatha.bray@globe.com与海瓦塔·布雷联系。关注他@GlobeTechLab。

The End

发布于:2025-01-30,除非注明,否则均为爱空网原创文章,转载请注明出处。