“江工,麻烦帮忙审一下吧。”余梓夕在微讯上说,
“毕竟是第一次操作这样的文章。”
“对,你赶紧把初稿给我审一下!”江渝木急切地说。
当然得自己审一下啊,不然怎么保证这篇文章肯定会扑。
见他如此上心,余梓夕高兴地把初稿发了过去。
江渝木打开文档,看到开头就皱起了眉头,但很快他的眉头又舒展开来——能让自己看得皱眉头的文章,那不就是让大多数人看不进去的好文章吗?
这篇文章果然遵循他的意见,偏重于专业性,一定程度上舍弃了可读性。
文章一开始解释,为何在智能驾驶仿真测试中需要引入视频注入这项技术。
如果按照前面几篇的风格,“洞知汽车”在这里少不了要整一些诸如“缸中之脑”这样的花活。
但这篇文章却是直入主题,写到纯仿真环境中,汽车传感器是完美传感器。
什么意思呢?
也就是仿真环境中设置了一个行人,或是一辆前车,那自车传感器就肯定能检测到行人和前车,相关的距离信息会被准确地发送给控制器。
但实际行车过程中,传感器不可能是完美传感器。
对于视觉传感器,如果遇到下雨天和大雾天,摄像头对障碍物的检测就会出现偏差。
对于超声波雷达而言,有时遇到环境干扰,检测到的自车和障碍物距离也会不准。
另外还有延迟问题。
实车上传感器和控制器之间是有传导链路的,这就导致控制器不可能实时获取传感器信息,一般都有30到100毫秒的延迟。
但纯仿真场景不是这样。
只要相关要素生成,基本就会同时“告诉”控制器:前面多少米的位置有个什么东西。
可想而知,有了这些情况,仿真测试的结果就会和实车路测的结果大相径庭。
而视频注入呢?
它不直接告诉控制器前面有什么,而是把仿真软件生成的场景视频流,通过和实车一样的链路喂给控制器,让控制器自行判断前方有什么。
通过这种方式,就能在仿真测试中,尽可能模拟实车传感器的情况。
这部分的结构其实很清晰,行文也很流畅,江渝木此前没搞过智驾仿真,大致也能看懂。
但问题是,他是工科出生,还做了4年汽车研发工程师,理解这种文章是有先天优势的。
大部分读者根本没接触过汽车专业的知识,对于这种纯技术讲解的文章,基本看完开头就要开始打哈欠了。
而文章后面的内容更加硬核,谈到视频注入技术中的一些难题。
比如说,如果想尽可能模拟实际传感器的工作情况,那就肯定得保证注入的视频足够真实,能让人一眼看去分辨不出是仿真的还是实拍的。
这就对仿真软件的性能提出很高的要求。
另外还有信号的延迟。