一場事先避免的車禍——特斯拉Autopilot進階之路

36氪 於 29/12/2016 發表 收藏文章
文:鄭曉康

編輯:盧姿伊

汽車平穩地在高速公路上飛馳,前方視野良好,突然車子發出刺耳的警報聲,伴隨警報聲的還有明顯的車速下降,雖然這位Model X車主也在專心致志地盯着路面,但這次是車比他還早地踩下了剎車。此時,前方發生了一起追尾交通事故。

這不是科幻片中的場景,這輛加持“未卜先知”能力的汽車來自荷蘭的一位特斯拉Model X車主。車主Hans Noordsij稱,特斯拉在Autopilot系統啟動時主動探測非常有效,並提前介入了制動讓車子停下來。在整個過程中,雷達探測到了前車之前的路況,比車主反應還快,先踩了一腳剎車。這也是正是我們在視頻中看到的,這輛特斯拉在碰撞發生之前就發出了警報。
它甚至提前算出了碰撞!

一時間社交媒體上對特斯拉Autopilot系統的稱讚不絕於耳。但可能人們不知道的是,這一前向碰撞功能用到的是毫米波雷達,在視頻中的跟車場景中,正是毫米波雷達發揮作用的典型場景。毫米波雷達是Autopilot自動輔助駕駛硬件的組成部分,2014年10月首次推出,並在今年9月12號升級為了增強版。

而這場升級便是是源於7個月前那場著名的車禍。

如果我們把時間撥回到今年5月,會發現當時的Autopilot 系統正因為一起車禍深陷於輿論的口誅筆伐之中:

來自美國俄亥俄州的 40 歲男子 Joshua Brown,駕駛 Model S 到一個十字路口時,與一輛大型拖車發生意外碰撞事故後死亡。當時,Model S 的 Autopilot 自動駕駛模式處於開啟狀態。據特斯拉官方迴應,強烈的日照和白色車身是 Autopilot 系統不能檢測出障礙的原因之一。

5月至今,大半年過去,特斯拉的Autopilot系統經歷了怎樣的蜕變?

以Model X為例,第一代特斯拉Autopilot系統有着這樣的配置:來自Mobileye的前置攝像頭位於擋風玻璃中間;來自博世的毫米波雷達,位於保險槓下方;12 個超聲波傳感器,分佈在車身四周。來自Mobileye視覺識別芯片eyeQ3。

要探究兩則新聞一悲一喜結局迥異的原因,便是9月12日發佈的Autopilot系統8.0的更新。

據公開資料,在此之前的每一代Autopilot系統都是以主攝像頭作為主要傳感器,以圖像數據分析為主、雷達數據分析為輔的計算邏輯。Mobileye 攝像頭的視覺識別功能非常出色,但是在雨霧天氣下,攝像頭的性能會受到環境能見度制約。根據特斯拉在悲劇發生後給出的説法,依靠攝像頭作為主要傳感器在某些極端情況下主攝像頭及視覺識別系統無法識別前方障礙物,比如那場悲劇中“強烈的日照和白色車身”就讓系統出現了誤判。這讓特斯拉開始考慮利用現有硬件提升Autopilot系統安全性能的可行性。

從9月12日推送的Autopilot系統8.0開始,特斯拉將把雷達用作Autopilot系統的主要傳感器,利用信號處理技術建立汽車周圍環境的計算機模型。此外Autopilot8.0還包含了雷達建模技術,並開始收集數據提高雷達性能。所有特斯拉汽車將開始利用新軟件收集信息,並上傳到中心數據庫。

毫米波雷達

也就是説,在此次更新中,特斯拉開始把雷達作為核心傳感器,同時希望把雷達的性能發揮到極致。而對雷達性能進行挖掘的一個重要做法,就是提高幀數,判斷障礙物狀態:

“減少誤識別的第二部分包括整合每隔0.1秒獲取的雷達快照,彙編成為現實場景的"3D"影像。(通常)通過單一影像幀,很難知道物體是移動的,靜止的,或者只是反光造成的虛像。通過比較包含車輛速度、預期軌跡信息的連續影像幀,車輛可以分辨前方物體是否是真實的,同時預估發生碰撞的概率。”

再看看前面那場悲劇,也就是説,在Autopilot系統8.0中,特斯拉通過充分壓榨雷達的性能終於解決了少數攝像頭在極端情況下誤判的問題,反過來説,如果沒有解決這個問題,那這個大版本更新又如何能沖淡人們對Autopilot系統安全性的擔憂?

但事實上毫米波雷達存在着很多問題,比如識別人像不如攝像頭,對木質和塑料物體的識別存在嚴重問題。另外任何凹型的金屬表面(比如,一個易拉罐?)都會被識別為“大型的危險障礙物”。針對這些問題,特斯拉通通做了細緻的優化。為了解決誤識別障礙物從而導致頻繁剎車制動問題,新系統對現有硬件進一步挖掘,讓雷達可以探測到的周邊的物體(數量)達到以前的六倍,並且有能力在每一個物體上獲得更多細節信息。

六倍於之前系統的探測物體,再加上毫米波雷達擅長穿透周圍的障礙,以及探測更遠距離以外的障礙的固有特性,今天這則新聞的路況幾乎可以説是雷達應用的最佳場景了,避免車禍的發生也就顯得合情合理了。

Tesla Vision

對雷達性能的深度挖掘似乎解決了發展自動輔助駕駛系統遇到的難題,然而同時也帶來了新的難題,由於特斯拉把此前車禍原因歸結為Mobileye的攝像頭和視覺識別芯片誤判,直接導致特斯拉與昔日合作伙伴Mobileye反目成仇,最終二者分道揚鑣。

擺在特斯拉麪前的難題是為隨後面世的新車所需的視覺處理芯片及系統尋找新的合作伙伴,或者乾脆自研——畢竟視覺處理芯片市場的優秀企業並不多

果然,今年9月,特斯拉證實了自家Tesla Vision項目的存在。再加上今年早些時候,特斯拉招募了AMD知名微處理器工程師Jim Keller為Autopilot硬件工程副總裁、以及幾位來自蘋果等公司世界級芯片架構師,Tesla Vision項目打造一套基於Nvidia CUDA並行計算平台的端到端計算視覺框架計劃逐漸浮出水面。

據特斯拉發言人表示,該系統能夠從攝像頭傳感器採集原始數據,然後由特斯拉汽車控制和進行影像處理。它將結合深度神經網絡訓練,並配合特斯拉近期發佈的雷達處理技術不斷優化。也就是説,Tesla Vision項目將與Autopilot8.0的雷達探測技術緊密結合,通過官方服務器收集大量的行駛數據積累,讓Autopilot變得越來越“聰明”、越來越安全,併為即將推出的無人駕駛系統的研發鋪路。

舉個簡單的例子,在我們前段時間對Autopilot 8.0的評測中,在進行變道操作時,依然需要人來打轉向燈,此後車輛會在確認盲區沒車沒有危險的情況下,進行相應變道。當然了,你也能想見,在變道還需要人來打燈的情況下,特斯拉就更不可能知道從哪個路口上下高速/環路,進行左拐、右拐等操作了,現在要想到達目的地,仍需要人來決定走哪條車道、如何走。

而在Tesla Vision的設想中,車輛可以自行變道、進行相應車道的選擇、上下高速路口,也就是説,人類駕駛員輸入起止點,就能一鍵到達目的地的場景已經進入特斯拉藍圖了。

不過,還是那句話,在沒有無人駕駛技術完全成熟之前,我們是事故負責人,照着特斯拉的指示做到“手握方向盤,隨時準備接管車輛”,不必非要玩脱了吧。

我是36氪汽車小組負責人盧姿伊,負責特斯拉、無人駕駛、新能源、車聯網、出行及後市場,歡迎直接與我聯繫,微信:17701221940

Attention!!!36氪汽車小組正在招募實習生一枚,負責自動駕駛方面新聞,包括但不限於特斯拉、Google、Uber以及各大車廠自動駕駛項目,自動駕駛創業公司等。有技術背景,能舉一反三、並深入淺出地解讀趨勢。定期做汽車行業整合報告。


資料來源:36Kr

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→