近期 Tesla Model 3 在國道發生的車禍意外,又掀起自駕車究竟安全性能如何的議題。正巧近日,美國 IIHS 高速公路安全保險協會發表一則新聞,卻可能再次顛覆大家對於自駕車安全性的認知,因為 IIHS 表示,如果車輛真的能以像人類一般的駕駛,可能只能減少 3 分之 1 的車禍,卻不能真的達成零事故的交通環境。
IIHS 開頭提到,過去傳統觀念認為,自動駕駛車輛能使車禍成為過去式,帶來零傷亡的用路環境,然而 IIHS 研究副總裁 Jessica Cicchino 提到:「自動駕駛汽車最終可能會比人類更能判別危險,但僅憑這一點並不能防止大量的車禍事故。」
會有此一論點的原因也在於,美國警方調查美國撞車事故中,每 10 起事故中,有 9 起就是因為駕駛員的失誤而造成的。又再進一步分析,其中只有 3 分之 1 的車禍,是由於駕駛介入希望避免自動駕駛車輛錯誤判斷,卻因此發生車禍,簡而言之也就是系統與人類對於危險判斷的差異使然。
也因為此研究結果,IIHS 說明,縱然要讓自駕系統如同人類一般的駕駛車輛,確實是個巨大的挑戰,但實際上,如果車輛真能如同人類的思維,也只是避免了上述 3 分之 1 的車禍,但仍有 3 分之 2 的車禍,必須仰賴自動駕駛系統能做出更多人類無法執行的駕駛判斷,才可能帶來零傷亡交通。
為了估計如果將自動駕駛汽車設計為,做出與人類相同的風險決策時,可能繼續發生的撞車事故有什麼?IIHS 研究人員對《國家機動車撞車因果關係調查》中,5,000 多起警察報告的撞車事件進行了調查。選出來研究的報告有在美國國家公路交通安全管理局 NHTSA(National Highway Traffic Safety Administration)彙整,事件嚴重性都是至少有一輛車被拖走,且有救護車抵達現場的車禍案件。
在這些案件中,IIHS 將其區分為 5 類:
- 感知錯誤:包括諸如駕駛員分心、視線障礙、以及在來得及之前,仍未能識別危險之類的事情。
- 判斷錯誤:當駕駛員錯誤判斷交通,舉例像是錯誤地估計另一輛車行駛的速度,或對另一位用路人的動向做出錯誤的預判時,就會發生預測錯誤。
- 計劃和決定錯誤:包括因路況而駕駛太快或太慢,在親自駕駛時,與前方車輛之間的距離太小。
- 執行錯誤:錯誤包括不適當或不正確的迴避駕駛,以及其他控制車輛的錯誤。
- 失能:涉及由於飲酒或吸毒,醫療問題或駕駛時打瞌睡引起的傷害。
不過,研究人員另外表示,某些碰撞是不可避免的,例如由於車輛故障(如爆胎或車軸損壞)引起的那些碰撞。
在確認這 5 類造成的事故後,研究人員設想若道路上所有車輛都是自動駕駛,他們認為這能防止那些感知錯誤或者失能的駕駛導致的事故,因為自動駕駛車輛的攝影鏡頭與傳感器,能比人類更清楚的監測道路、判別潛在危險,且不會因此分散注意力或喪失駕駛能力。
而僅因感知錯誤導致的車禍約 24%、失能導致的車禍約 10%。所以如果所有車輛都是自動駕駛,將能減少 34%的車禍,當然前提也是建立在傳感器永不故障。所以除非能將所有狀況寫入在自駕車的資料庫,否則即使車輛能像是人類一樣的駕駛,卻還是會有 3 分之 2 的事故可能發生。
至於計劃和決定錯誤,包含決定超速、違規駕駛等等,則佔了樣本中 40%的車禍,駕駛員的故意決策可能導致撞車的事實,證明駕駛員的偏好有時可能會與自動駕駛車輛的安全優先決策衝突。為了使自動駕駛汽車兌現零傷亡交通,必須將其設計為著眼於安全性,而不是讓車輛會做出駕駛員想做的違規行為。
總結來說,IIHS 透過此篇研究要傳達的是,過去大家總認為自動駕駛若能像人類一般駕駛,便能帶來零傷亡的交通,但這種想法並不精準。嚴格來說,自動駕駛不是要讓每個人有一個專屬司機或是分身,而是要把安全行駛擺在優先,舉例來說,在交通壅塞或者能見度差的地方,有的駕駛員可能就會想要不斷變換車道超車、或者還是不選擇放慢速度,但自動駕駛不該會因此有這些行為。
所以自動駕駛與其說要像人類一般駕駛,更該說是守規矩的安全駕駛,也才能在若每輛車都是自動駕駛車輛時,都能互相溝通做出危險的預判,與其在即將發生事故時探討「倫理」議題(即有的會問說要讓自駕車設定撞 1 輛車或者是閃避撞到旁邊路人),若能讓車輛都避免遇上這種事情,何須煩惱這樣的兩難課題?
討論區
成為第一個發表的人