今年4月19日,美國一名開著Tesla(特斯拉)Model S的駕駛撞上一輛摩托車,最終導致騎士當場死亡。美國相關單位現在已確認,Model S駕駛在事故發生當時不僅使用了Full Self-Driving(FSD)半自動駕駛系統讓車子自己控制行駛,同時他還在看手機。這件車死亡車禍的調查目前還在進行當中。
Tesla的FSD半自動駕駛技術經常因其名稱和可能導致車主過度信任的風險而受到批評。這起事故在某種程度上顯示了一些駕駛確實濫用了這項技術。根據現場記錄,Model S的駕駛承認他當時分心了,並在車禍發生時啟用了FSD。
根據Seattle Times的報導,一名警官記錄了事故的細節。他說:「Tesla Model S的駕駛唯一記得的就是,突然聽到一聲巨響,然後車子向前猛衝,並與前方的摩托車相撞…… 根據他承認的開車不專心,以及在Autopilot模式下移動時使用手機,過度依賴車輛自行駕駛。」
雖然警官提到的是Autopilot(自動輔助駕駛),但美國相關單位現在已使用車輛的數據記錄器確認,當時車輛啟用的是FSD。值得注意的是,在幾起引人注目的事故之後,Tesla現在已將這套系統稱為「FSD Supervised」(監督下的全自動駕駛)。
「監督」這個詞對Tesla來說非常重要。啟用Autopilot或FSD時,駕駛者需要同意保持警覺,隨時準備接管車輛。理論上,這應該能確保安全行駛,但科學證實,人類很難在這種被動監控的狀態下保持專注。
Consumer Reports(消費者報告)的自動駕駛測試負責人Kelly Funkhouser曾對NPR表示:「這是人性,當你只是坐在那裡看著車子駕駛時,很容易想放鬆並找點其他有趣的事情做。」她形容這就像「看著油漆乾燥」一樣無聊。「這就是我們最擔心這些系統的地方。」她說,「隨著這些技術變得越來越成熟,駕駛者就越容易分心,並做些別的事。」
因此,關於注意力分散的問題,以及與半自動駕駛車輛相關的風險,不僅限於Tesla,也延伸到所有的Level 1和Level 2級別的駕駛輔助系統。
[Soruce: Seattle Times]
Leave a Reply