==卷首語===================
本期焦點是台灣Model X車禍現象分析,注意,僅僅是根據現象所做的分析,一切細節以將來公布的事故報告為準。
===================車右智能==
從事自動駕駛行業的朋友們大概應該都還記得黑色的2018年度,以及在那個年度中最黑色的三月份。在一個月之內,彼時完全自動駕駛技術的行業翹楚之一,Uber autonomous driving測試車輛在夜間測試中發生致死事故——將一位推着自行車橫穿公路的亞利桑那婦女(Elaine Herzberg)撞死。雖然事後在針對本起致死事故的審判中,Uber被裁定不對這起事故負有刑事責任,但毫無疑問,其開創自動駕駛技術測試和試商用過程中殘忍且不光彩的第一幕。
隨後僅僅一周之後,另一起致死交通事故降臨在大規模將輔助駕駛技術商用化的新貴Tesla身上。在2018年3月23日,一輛開啟Autopilot輔助系統的全新Model X,在硅谷核心地帶的101號高速公路上以120Kmph的速度撞上高速公路中的隔離帶衰減器,38歲的Apple華人工程師當場死亡。
我們日復一日在這個極度複雜的工業和科技領域中努力,所涉及的技術林林總總,所以需要面對和處理的問題也就是方方面面。近期發生的公眾人物林志穎先生Model X座駕莫名其妙地撞擊道路分隔帶和信號杆事件依然在提醒我們,自動駕駛技術非但在脫離人力管理的完全自動化Level4-5高階系統上遠未成熟,就是在已經大規模商用的輔助駕駛Level-2的範疇內,也依然談不上成熟可靠(小編:前提是Model X在事發時開啟了Autopilot,一切以事故調查報告為準,本文只提供一種技術上的猜測)。
林志穎車禍的影像資料
林志穎車禍事故發生在7月22日,過去已經有3周多時間,已經不屬於熱門新聞之列。小編翻看最近的娛樂消息(小編:自動駕駛行業新聞熱點已經被小鵬致死事故所取代,沒人關注林志穎了已經),林志穎本人已經從ICU病房轉移到普通病房看護,除了複雜的面部修復手術待執行,肩膀、胸部和胳膊的手術進行順利。且其本人意識清楚,已完全脫離危險。此外,還有非正式的消息說林志穎本人在互聯網社區中開始回復粉絲的留言,一切都在向好的方向發展。但子彈飛了這麼久,我們依然還看不到任何來自官方(小編:包含警方和Tesla車輛製造商)對於車禍的調查結果or線索流出……懸念重重下,徒增我們對事故的驚懼和技術執念的動搖。無法迴避的事實是,2021和2022年度已過去的半年內,執國內造車牛耳的三家王者:蔚來、小鵬和理想,再算上Tesla,相繼行車事故頻繁曝光(蔚來還涉及一起內部測試車輛事故),前二者甚至還是致死事故!小編自己有時候也會被懷疑的氣氛所裹挾,陷入想說服別人卻很難說服自己的境地。
回顧在林志穎車禍的當天和第二天(7月22日和23日),互聯網上先後有一些不同角度的影像和圖像資料曝光,小編整理和羅列如下:
1 Model X事發前的掉頭視頻:
以上圖1中,Model X完成一個標準的掉頭操作,稍作調整後即平滑駛入三車道的中間車道,推測應該是林志穎本人操作。根據公開信息,林志穎駕駛的這輛Model X是2021的新款,是去年和Model S plaid版本一同發布並帶有Yoke矩形方向盤的新版本,林志穎本人投放在社交媒體上的新車駕駛視頻信息也印證了這一點。因Tesla FSD beta測試計劃目前只在北美大陸開展,所以台灣版Model X with EAP/autopilot不應該具備自動掉頭功能(U-turn)。銷售中的商業版本的Autopilot在地面沒有完整、清晰車道線時是需要人工接管的(小編:如果我這裡表述錯了,請讀者指出),而車輛掉頭的路口區域,往往存在大面積的道路標識線空缺。
在長期跟蹤FSD beta測試項目時,我們不難發現FSD系統的設計初衷是要和人類的基本駕駛能力對齊,從而儘可能降低對外部環境的依賴。這種依賴關係具體表現為:依賴提前測量和繪製的高精度道路地圖HDmap、依賴外部定位信號源綜合提供實時且高精度位置信息和航向信息、依賴Lidar/Radar/Camera等傳感器實時獲取車身四周的道路結構及障礙物信息等等。但這些依賴關係,長期以來都算是人類工程實踐的基本思路:將具體的「技術命題」或者「技術挑戰」規則化、邊界化地局限在某個預定義場景下,從而提供解決問題的可能性。這樣的實踐比比皆是。在自動駕駛領域,目前我們實際可以看到各主流廠家的自動駕駛系統解決方案基本都是這個思路,相當於給技術難題做減法,直到進入一個穩定的、相對不那麼難的技術領域,從而實現產品化。從這點上看,Tesla算是個異類。不過Elon Musk本來就是個異類,不是嗎?
Tesla目前所能提供的兩個自動駕駛系統實現,Autopilot(商用中)和FSD beta(測試中)的自動化設計級別差異明顯。其中在售狀態的Autopilot自動輔助駕駛系統屬於Level-2產品實踐,當車輛檢測到自己並非處於結構化和標準化都更好的高速封閉路段Highway場景下時,或當車輛視覺系統檢測不出連續有效的車道線時(小編:清晰的、高置信度的車道線識別是Autopilot系統激活的前提條件,這意味着自動駕駛系統所面臨的場景結構化強且相對安全),實際上Autopilot或無法激活,或如果已經在激活狀態中則會通過聲音警告人類駕駛員接管。尤其在典型的City road條件下(小編:City road道路環境是相對於高速路段更複雜的道路環境),相信允許人類駕駛員可脫手監管的外部道路條件是大概率不具備的。目前處於測試狀態中的FSD beta則是另一個命題,本篇內就不展開討論了。
這是為什麼我們說從圖1視頻中那個毫不拖泥帶水的U-turn操作上看,基本可以確定是人類駕駛而非機器。往細節里說,當車輛進入十字路口區域執行U-turn操作時,不管是否有交通燈的保護期,車輛掉頭都是一個非常困難的操作。Tesla車輛的視覺系統在U-turn過程中,需要通過實時在標清地圖(預製信息)和視覺信號(實時計算)的比對中,來判斷自己車身和路口道路結構之間的相互關係,從而可以規劃出安全、舒適和高效的掉頭路線(小編:我們在此忽略了掉頭的行為規劃,這不屬於討論範疇)。目前商用的Autopilot EAP系統顯然並不具備這個能力,根據大量的路測視頻顯示,即便FSD beta系統,做掉頭U-turn操作都很費勁。表現為對動態外部場景響應緩慢、動作猶豫。
視頻中另一個關鍵點在於,當Model X完成掉頭操作並進入直道行駛之後,此時Model X車輛是否開啟了Autopilot的LKA-Lane Keeping Assist system功能?這是個典型的L2輔助駕駛功能,市面上進入商用階段的Level-2系統一定都包含車道保持功能。從畫面上看,車輛在完成掉頭之後確實平滑地進入中間車道,但無法判斷這個操作是人為駕駛回正還是系統LKA激活後的自動操作。
而是否在此刻Model X激活了LKA?是後面推論的關鍵起點。
2 Model X事發時的意外變道正面視頻:
上圖2視頻中,清晰地展示出了Model X在進入直行之後,進入一種「奇怪的」行駛狀態。如果以地面的車道線和導流槽交接處為分界點(下圖3中黃色箭頭指示位置),在分界點未到的前半段Model X可以在車道中居中行駛,但在過點並進入後半段後,Model X開始逐步向右偏轉,直到Model X的右前輪幾乎壓着車道導流槽的斜線撞上隔離帶上的交通標識杆。
整個過程既沒有激烈的加減速,也沒有明顯的打方向盤的操作。唯一的變化,也是幾乎難以發現的變化,就是車輛進入道路導流範圍內時的逐漸右偏。僅此而已。
令小編不解的是,關於這次具備轟動效應的Tesla車禍的技術分析如此之少,而非技術的公眾關注卻又如此之多,當然這和林志穎先生本人從業娛樂圈的屬性相關。但同時也要看到,主觀上林志穎先生本人在過去的半個月的時間內一直沒有透露車禍的主觀行為,和客觀上事故Model X行車記錄信息披露又遲遲沒有公布,也是造成外界沒有做充分技術分析的可能性的原因之一。
所以,所謂的技術分析,包括本篇,也真就都是猜。猜測的目的不是為了搏個口彩和注意力,而是職業習慣使然,僅供參考。
圖四【linzhiying-4.png】來自yahoo新聞網站,取自URL:https://tw.news.yahoo.com/%E6%9E%97%E5%BF%97%E7%A9%8E%E8%87%AA%E6%92%9E-%E6%B0%91%E7%9C%BE%E5%86%92%E9%9A%AA%E7%A1%AC%E5%B0%87%E4%BA%BA%E6%8B%96%E4%B8%8B%E8%BB%8A-065015380.html;
從上圖4這個角度看過去,這是一個普通路面橋結構。兩根行車道+一根非機動車道+一根自行車道構成。大陸這邊不太常見將非機動車和自行車再做區分,可能是台灣地區的非機動車(電瓶車和小型摩托車)成熟期比較早且流量占比較高,故再次做了區隔。這樣做直接的後果就是上圖4中所呈現的,專車專道但每個車道都十分狹窄。

如果我們像在圖5內那樣強化導流帶的一側線條,就會產生各車道在導流帶起始位置開始向右傾斜的效果。車道越窄導致導流槽越密集,也就導致視覺上的某種「錯覺」。當然這僅僅是個人感覺,並不確定在Autopilot的視覺識別系統下,車道線是否會出現類似「錯覺」?
以下圖6是事發當地路面橋在事故後的修繕,交通標識杆被臨時取消,新增的是更長距離的黃色車道線警示標識杆。從這個角度讀者可以更好地感受路面橋的三分結構,道路結構狹窄且車道線密集的真實狀態並沒有得到改善。
硅谷Autopilot事故資料
實際在Tesla Autopilot的商用歷史上,也確實發生過車道線誤識別所引發的事故,甚至致命事故。早在2018年3月23日,一輛開啟Autopilot輔助系統的全新Model X,在硅谷核心地帶的101號高速公路上以120Kmph的速度撞上高速公路中的隔離帶衰減器,38歲的Apple華人工程師當場死亡。
圖七【linzhiying-8.png】來自谷歌地圖的街景截圖和自主編輯,取自URL:https://www.google.com/maps/@37.4108319,-122.0755114,3a,49.9y,125.76h,84.55t/data=!3m6!1e1!3m4!1s5J6XbQVvsPkwXt4MyW0vPQ!2e0!7i16384!8i8192;
結合上圖7所示(橙色箭頭為撞擊位置,黃色線路為Model X的走位),在NTSB.org的故障報告中,有如下描述:(小編翻譯整理)
駕駛2017年款特斯拉Model X P100D電動MPV的 38 歲司機,在他的汽車進入 US-101和85號國道出口坡道的隔離帶區域時,以每小時120Kmph以上的速度撞擊到損壞的碰撞衰減器。Model X隨後被另外兩輛避讓不及的汽車先後撞倒,導致另一人受傷。特斯拉的高壓電池在碰撞中被破壞,隨後發生碰撞後火災。目擊者在車輛被火焰吞沒之前將特斯拉司機從車輛上移走。
NTSB從特斯拉的「Carlog」數據(存儲在媒體控制單元中的非易失性內存SD卡上的數據)中獲悉,
1 在撞擊前的最後10秒內,特斯拉的「Autopilot」系統被交通感知巡航控制子系統激活,並設定為75英里/小時(120Kmph)。
2 在撞擊前6到10秒之間,Model X以 64到66英里/小時(106Kmph)的速度跟隨另一輛前車,距離約83英尺(25m)。
3 特斯拉的車道保持輔助系統(「Autosteer」)在距離隔離帶上的碰撞衰減器約5.9秒和約560英尺時(170m),啟動了向隔離區域的左轉向輸入(致命錯誤)。在這個轉向運動時,Autosteer並沒有檢測到駕駛員施加的方向盤扭矩,並且這種手動轉向指示(告警信號)一直持續到撞擊點。
4 當Model X距離衰減器約3.9秒和375英尺(114m)時,特斯拉的巡航控制系統不再檢測到前方的領先車輛(小編:因為Model X此時已經跑偏了,自然就看不到或者不認為自己當前車道上的身前還有前車存在了),因此Model X開始從61.9英里/小時加速到預設的75英里/小時(120Kmph)的巡航速度。
5 隨後在撞擊前的最後時刻,特斯拉的前方碰撞警告系統沒有提供警報,自動緊急制動也沒有啟動。SUV司機因為注意力問題根本也沒有踩剎車,也沒有啟動任何轉向動作來避免撞車……
上圖7中的隔離帶場景,以及最後的Model X的故障模式,和發生在台灣的Model X車禍有一定的相似程度。但請注意一個客觀事實是:我們並不知道台灣車禍中那輛Model X是否激活了Autopilot還是林志穎先生本人的操作失誤所導致。一切應以調查結果為準。技術推測只負責分析各種可能性而並不製造謠言。
硅谷車禍和台灣車禍場景中有一個顯著的差異需要讀者清楚,圖7顯示路面導流槽的表面塗裝還是非常清晰的狀態,但這張來自谷歌地圖的街景截圖是發生在2020年而不是車禍發生時的2018年。實際上2018年車禍時,當時的影像資料表明,那個位置的地面導流槽塗裝至少在一側是模糊和不清晰的……從技術可能性上分析,這應該是導致Autopilot的車道保持功能偏轉航向的主要原因。參見以下視頻,可以看到車禍發生後那一個時期的導流槽狀態:
圖八【linzhiying-9.mp4】來自一個工程師的自測視頻,來源已經不可考,大概是youtube.com,向作者致敬:
上圖8視頻中,一位來自硅谷的工程師,也是一輛Tesla車輛的車主,因為在自己的駕駛經驗中,曾經遇到過這次致死事故相同的故障類型。故此在事發之後(時間不確定),特意嘗試開着自己的Tesla,在激活Autopilot的前提下,在US-101高速路的相同地段試圖復現故障。結果,致命偏轉的故障真的復現了…..
圖8視頻中可以清晰看到整個過程中Autopilot的車道保持功能的狀態,在地面導流槽模糊區域將導流槽的另外一個較為清晰的車道邊線識別成「低置信度」的車道線。「低置信度」是因為可以注意看此時車載中控屏幕上本來顯示穩定的、高亮的車道線消失了,但「低置信度」車道線依然導致車輛偏轉,且車速並未隨之下降,直到駕駛員干預。在這個錯誤的場景下,如果Autopilot再對於千奇百怪、形態各異的隔離帶、標誌杆、各種減速路障等等識別不清楚、不穩定,就會發生意外撞擊事故。
圖9視頻中的故障模式一模一樣,在封閉高速道路的分岔口,地面導流槽識別錯誤導致車輛偏轉,直接駛向隔離帶。考慮到Tesla Autopilot商業版本在百萬級別的運行車輛艦隊上得到實際安裝和運行,以及較早地採用了數據驅動的自動駕駛系統訓練方法。尤其在視覺領域,如果autopilot無法處理所有情況下的所有極限corner case,類似誤識別車道線、對於明顯障礙物的識別也存在明顯的誤檢和漏檢現象,那麼其他自動駕駛系統和主機供貨商呢?
通病?對,通病!
你還真別說,這真不是Tesla的Autopilot所獨有的問題。最近半年內,我們看了太多的武裝到牙齒的自動駕駛車輛問世,但也確實看到層出不窮的商用級別的Level-2輔助自動駕駛事故發生,在人類駕駛員無法及時介入接管的前提下,包括蔚來、小鵬和理想等一眾自動駕駛先鋒企業……可以撞上封閉高速道路上的任何尺寸和級別的障礙物,匪夷所思但概末例外。
為了解決這些致命且影響非常惡劣的自動駕駛安全問題,我們可以參考美國NTSB在2020年針對硅谷致死事故所提出的安全建議:
1 擴大NHTSA的新車評估計劃,測試前向防撞系統的性能;
2 對配備Level-2「自動駕駛儀」的車輛進行評估,以確定系統的操作限制、誤用的可預見性以及在預期操作設計範圍之外操作車輛的能力是否對安全構成不合理的風險;
3 開發駕駛員監控系統標準,以最大限度地減少駕駛員脫離接觸,防止並解決可預見的自動化濫用問題;
4 審查和修訂「分心駕駛」計劃,以提高僱主對禁止在駕駛時使用便攜式電子設備的強有力的手機政策的必要性的認識;
5 開發分散注意力的駕駛鎖定機制,該設備將在車輛運動時自動禁用;
6 制定政策,禁止在所有員工和承包商在駕駛公司車輛時,使用便攜式電子設備。
雖然NTSB的政策分頭覆蓋了車端和手機端在駕駛場景下的嚴格限定,但實際上,完全限定人類駕駛員,確保其不犯錯誤依舊是不可能完成的任務。問題的核心還是Level-2自動駕駛系統較為孱弱的自動化能力和人類無法保持一貫的警覺心,這個組合無法處理千奇百怪的道路場景。而寄希望於人類和車輛融為一體,形成完美的互補——該放手時放手、該接手時接手,也不應該是技術進步的核心目標。所以從業人員全力以赴推動自動駕駛系統向Level-4邁進,儘早降低車輛安全故障和事故,才是王道。
綜上,我們可以扣題——如果您的車輛有Level-2自動駕駛系統,請您對其保持一貫的戒心,切記。
備註:
1 封面底圖來自互聯網插圖,URL資源: https://www.scmp.com/yp/discover/your-voice/opinion/article/3070650/face-hong-kong-ready-self-driving-cars;

「知識積累」類稿件質量要求:
A:信息密度高於絕大多數券商的絕大多數報告,不低於《九章智駕》的平均水平;
B:信息要高度稀缺,需要80%以上的信息是在其他媒體上看不到的,如果基於公開信息,需要有特別牛逼的獨家觀點才行。多謝理解與支持。
◆九章 - 2021年度文章大合集
◆當候選人說「看好自動駕駛產業的前景」時,我會心存警惕——九章智駕創業一周年回顧(上)
◆數據收集得不夠多、算法迭代得不夠快,就「沒人喜歡我」————九章智駕創業一周年回顧(下)
◆車輛控制中的「實時性」及其影響因素
◆激光雷達:905與1550的戰爭
◆「艙駕融合」技術發展趨勢分析