打破隱私限制!若使用 FSD Beta 出意外,必須提供特斯拉行車紀錄

excluded

特斯拉 Tesla FSD Beta 事故

雖說過去特斯拉曾強調不會搜集車主的行車資料,但看來這次特斯拉是真的要硬起來解決 FSD 的問題了。最近特斯拉表示,若使用 FSD Beta 時發生行車意外,車主必須接受特斯拉可以取用相關行車資料、影像作為調查用途。

使用 FSD Beta 出意外特斯拉會取用行車資料

特斯拉的 Autopilot 一直以來都是利用車內外的許多鏡頭當作偵測媒介,特斯拉也不斷強調,這些鏡頭捕捉到的資料,特斯拉不會取用,以維護車主的個人隱私。

但最近特斯拉貌似為了解決近期 FSD Beta 所產生的各種問題,將打破隱私限制,宣布:若在使用 FSD Beta 時發生行車意外,車主必須同意特斯拉可以取用當下相關的行車資料、影像作為調查用途。

特斯拉 Tesla 駕駛監控 Autopilot

同時也在車主下載新版本的 FSD Beta 前,會先跳出警告,徵求車主同意後才能夠開放下載使用。

特斯拉:為了用來證明的確是 FSD Beta 出問題

特斯拉另外補充表示:該措施與安全風險、行車事故相關,希望可以透過這樣的方式,來釐清與證明車禍發生的當下,的確是 FSD Beta 出問題,而不是車主本身的誤操作。

不過也不能說特斯拉這次的政策太過強硬,畢竟前陣子真的發生許多 Autopilot 的行車事故。

特斯拉 Tesla Autopilot

8 月中,美國國家公路交通安全管理局(NHTSA)才針對特斯拉的自動輔助駕駛所發生的事故展開調查,自 2018 年來共發生 11 起涉及自動輔助駕駛或是道路偵側巡航控制的相關事故,都撞上了停放在路邊緊急服務車輛(消防車、救護車等等)。

而當時分調查結果出爐,發現其中幾起事故案件並不是 Autopilot 的問題,而是駕駛本身操作不當或是有做出不當的駕駛行為,而導致事故發生。調查的 11 起事故中,有 2 起是酒駕、1 起是因為無照駕駛、4 起是 Autopilot 出錯。其他的事故目前則都還正在調查中。

延伸閱讀》