日前,一輛Uber自動駕駛汽車在美國亞利桑那州坦貝市的一條街道上,以每小時65公里的速度撞上了一位橫穿馬路的女子。該女子在送往醫(yī)院后不久,不治身亡。這是全球首例自動駕駛汽車路測撞死行人的交通事故,引發(fā)了公眾的極大關注以及對自動駕駛汽車安全性的擔憂。
事發(fā)后不久,坦貝市警察局局長對媒體表示,這場車禍無論是不是人類駕駛,都是不可避免的,這可能不是Uber的錯。
然而,這真的是一場無可避免的交通悲劇嗎?
眾說紛紜的車禍原因
車禍發(fā)生后,很多媒體和專家對車禍原因做了分析和猜測。
美國的網(wǎng)友看過視頻后表示,在光線昏暗的情況下,攝像頭的“視力”通常差得要命,如果用肉眼觀察,也許能更早注意到行人橫穿。
地平線機器人創(chuàng)始人余凱在接受媒體訪談時,分析猜測認為造成有可能是這輛自動駕駛汽車的預測判斷做的不好,出現(xiàn)了問題,沒能準確預判出障礙物的走向。
眼擎科技創(chuàng)始人朱繼志在其微博中表達了不同的看法。他認為,問題在于攝像頭,人從暗部走向亮部,因為路燈的原因,光線明暗反差太大。在暗部的時候,汽車沒有監(jiān)測到,等行人走到亮部的時候,汽車雖然監(jiān)測到,但已經(jīng)太遲了。
同時,他認為夜間道路光線環(huán)境太復雜,汽車攝像頭的動態(tài)范圍需要提升30倍以上,自動駕駛汽車才有上路的可能。
也有業(yè)內人士分析,這輛Uber自動駕駛汽車已經(jīng)檢測到了行人,只是沒有采取剎車或停車措施,致使釀成撞人事件。
傳統(tǒng)成像技術的天花板
眾所周知,當前無人駕駛汽車所采用的視覺系統(tǒng) ,主要是基于攝像頭和光學雷達。有業(yè)內人士對其相關的視覺性能優(yōu)勢和缺陷做了分析對比:
從圖中我們不難得出一個結論,沒有一種方案是完美無瑕,萬無一失的。對于基于傳統(tǒng)成像技術的攝像頭而言,受光照條件的影響非常大,在強光、弱光、逆光、反光等情況下,基本歇菜。
而當前最受車企青睞的激光雷達,也有很難逾越的短板。且不說,短期內無法迅速降低的成本,除了分辨率低外(當然現(xiàn)在已經(jīng)有128線,甚至300線的激光雷達,但與攝像頭的分辨率還是不可同日而語),最大的問題是無法辨識顏色,即無法表示交通標示。
另外,激光雷達也受環(huán)境的影響,就連特斯拉和谷歌都承認,即使是堆滿昂貴攝像頭和激光雷達的無人駕駛汽車在大雪天也基本被廢掉一半功力。
現(xiàn)在的自動駕駛汽車都采用攝像頭與雷達搭配的方案(或激光雷達+攝像頭,或毫米波雷達+攝像頭),妄圖彌補各自的不足。但顯然這樣的策略也沒有達到1+1>2的效果。原因很簡單,一方很難彌補另一方的短板。比如Uber自動駕駛汽車撞人致死的事件中,顯然車上的攝像頭因為光線問題沒有監(jiān)測到正要橫穿馬路的路人(除非汽車的剎車系統(tǒng)壞掉了),而激光雷達即使監(jiān)測到了有反射信號,也無法判斷出是行人。正如有專家分析,因為其局限性,光學雷達并不是為檢測行人設計的。因為光學雷達分辨率有限,刷新率不高,更無法獲取物體對象的顏色信息。所以它不善于實時地分辨物體。
給自動駕駛汽車一雙慧眼
從Uber自動駕駛汽車傳感器示意圖看,這輛出事的自動駕駛汽車上面也安裝了不少攝像頭,并且這些攝像頭都正常工作,卻并沒有避免悲劇的發(fā)生。為什么?
很簡單,這些攝像頭的視覺能力比不上人眼。
正如專家所說,傳統(tǒng)的攝像頭成像技術,機器的視覺能力無法與人的眼力相比,甚至很難接近。因為傳統(tǒng)的成像技術更專注于做給人看的圖像處理,即做圖像的優(yōu)化。而在機器的眼中,不注重像素高低,更不需要美顏,它需要的是精準的測量現(xiàn)實世界,不僅色彩高度還原、而且邊緣清晰、銳度高等。
這就意味著傳統(tǒng)的攝像頭無法滿足AI機器在復雜光線下的正常運作。
而對于駕駛員輔助系統(tǒng),關鍵挑戰(zhàn)則在于保證系統(tǒng)在任何環(huán)境狀況下(溫度變化、陽光照射、黑暗中或雨雪天氣)都能正常工作,而且還要能辨認出300米以外的物體。
事故發(fā)生后,Uber暫停了自動駕駛汽車路測,豐田暫停了自動駕駛汽車的路測,據(jù)說,英偉達也暫停了自動駕駛汽車的路測。
希望之光
不久前拜訪眼擎科技時,工作人員向筆者演示了他們最新推出的一項AI視覺成像引擎視覺技術成果:在昏暗辦公室內,搭載了眼擎科技AI視覺成像引擎方案的攝像頭在室內只有一臺電腦顯示屏作為光源的條件下,呈現(xiàn)出了明亮、清晰、色彩還原度相當高的圖像。而此時,人眼已無法分辨出被拍攝對象的顏色和輪廓。
對此,工作人員解釋說,眼擎科技希望解決的是AI機器在復雜光線下的自動適應能力。
有關資料顯示,不論2D還是3D攝像頭都需要圖像傳感器有至少130dB的高動態(tài)范圍(動態(tài)范圍指一個多媒體硬盤播放器輸出圖像的最亮和最暗部分之間的相對比值)。只有這么高的動態(tài)范圍才能保證,即使陽光直射到鏡頭上,傳感器也能得到清晰的圖像信息。普通的鏡頭系統(tǒng)動態(tài)范圍遠遠低于這個值。
該工作人員解釋,眼擎科技的方案在成像的動態(tài)范圍上比人眼高18db,所以在人眼無法辨別色彩的極弱光條件下仍能輸出清晰的彩色圖片。
今年1月份,眼擎科技發(fā)布了全球首款完全自主研發(fā)的AI視覺前端成像芯片“eyemore X42”。
據(jù)悉,eyemore X42成像引擎芯片,擁有比傳統(tǒng)ISP高20倍的計算能力,采用了20多種新的成像算法,集成了超過500種不同場景下的復雜光線數(shù)據(jù)。
其中一個重要原因,eyemore X42拋棄了傳統(tǒng)的ISP成像架構,采用了全新的成像引擎架構,來解決復雜光線下的成像難題。
除此之外,eyemore X42芯片還具有獨立成像以及API接口豐富的特點。
就像人眼擁有超強的視覺能力,不僅僅在于強大的光學成像系統(tǒng),更重要的是人眼通過神經(jīng)與大腦的交互。基于此,眼擎科技也為成像引擎設計了一套與后端AI算法的交互架構,來獲知AI對圖像的需求。
眼擎科技創(chuàng)始人朱繼志表示,這種與AI系統(tǒng)的交互能力,將使得成像系統(tǒng)真正成為AI的有機器官。
寫在最后
在本月初的“2018全球AI芯片創(chuàng)新峰會”上,眼擎科技與商湯、地平線等AI新秀一起榮膺“年度AI先鋒”獎,代表了業(yè)內對眼擎科技AI視覺前端成像技術的認可。
誠然,從Uber和豐田相繼叫停路測來看,公眾對自動駕駛汽車最大的顧慮還是安全問題。而安全問題的解決,主要取決于車輛本身能否及時監(jiān)測到危機或作出及時的處理。這就需要自動駕駛汽車整個產(chǎn)業(yè)鏈的成熟發(fā)展,包括道路基礎建設和5G網(wǎng)絡的興起,而其中最關鍵的還是需要車輛本身有一雙慧眼。而傳統(tǒng)的攝像頭成像天花板已非常明顯,以眼擎科技AI視覺前端成像引擎技術為代表的新生代,或許是沖破天花板的希望所在。
附2015年至今的全球13起自動駕駛汽車交通事故:
時間
事件梗概
2018年3月23日
23日,一輛特斯拉2017 Model X在美國加州101號高速公路上行駛時,撞上了公路的護欄后起火,并被后方兩輛來車撞上。
2018年3月18日
美國亞利桑那州一名女子被Uber一輛正在路測的自動駕駛汽車撞傷,被撞女子身亡
2018年1月22日
一輛開啟了自動駕駛模式的特斯拉Model S在洛杉磯405高速公路上撞上了一輛停在路邊的消防車。
2018年1月12日
一輛特斯拉Model 3翻入了一條小溪
2018年1月10日
在美國賓夕法尼亞州匹茨堡,一輛廂式貨車闖紅燈,撞到了福特的一輛自動駕駛汽車
2017年12月7日
在溫哥華,一輛Cruise自動駕駛汽車正以自動駕駛模式行駛,變道時剮蹭了變道中的一輛摩托車
2017年11月8日
在美國拉斯維加斯,一輛無人駕駛巴士與一輛卡車相撞
2017年3月24日
在亞利桑那州坦佩市,一輛測試中的Uber自動駕駛汽車與一輛普通汽車發(fā)生了碰撞。
2016年9月23日
在美國山景城,谷歌的一輛無人駕駛測試車遭受了一輛道奇商用貨車的嚴重撞擊。
2016年5月7日
一輛特斯拉Model S在佛羅里達州高速公路上與一輛垂直方向開來的掛車發(fā)生相撞
2016年2月14日
在硅谷芒廷維尤市,谷歌的“雷克薩斯”牌改裝無人駕駛汽車在路測時,與一輛公共汽車的右側相撞。
2016年1月20日
京港澳高速河北邯鄲段,一輛開啟了自動駕駛模式的特斯拉轎車直接撞上一輛正在作業(yè)的道路清掃車
2015年7月1日
谷歌公司一輛雷克薩斯牌改裝無人駕駛樣車在加利福尼亞州芒廷維尤市街頭測試時發(fā)生追尾事故