カリフォルニア州司法当局は、27歳の運転手に対する過失致死罪で2件の訴追を保留した。オートパイロットを作動させていたところ、彼の車は赤信号を無視して別の車と衝突し、2名が死亡した。オートパイロットの使用が確認されたにもかかわらず、テスラ所有者が起訴された初の裁判所判決となる。
これは歴史的な決定です。これまで、オートパイロットなどの部分自動運転システムが事故の原因である可能性があるという証拠があれば、死亡事故に巻き込まれたドライバーは起訴されることはなかった。これはもう当てはまりません。
実際、カリフォルニア州の検察官2人は、過失致死罪2件27歳の若いVTCドライバーとの対戦。 2019年12月29日、ロサンゼルス郊外で、テスラ モデルS赤信号を高速で走行し、近くにいた別の車に衝突した。通行料は重いです:二人は即死する、テスラの他の乗客2名が負傷した。オートパイロットが有効になっていることを確認しました。
NHTSA、ドライバーに責任を思い出させる
2021年10月に提起されたこれらの容疑は、地元チャンネルKPIX 5とAP通信によって先週になって初めて公表された。事故の後、交通安全を担当するアメリカ連邦機関、NHTSAは特別調査チームに悲劇の調査を命じた。同団体は最初の結論で、ドライバーの責任を次のように回想している。
「L2 (レベル 2) 自動運転システムが作動しているかどうかに関係なく、利用可能なすべての車両は人間のドライバーが常に制御する必要があり、すべての州の法律は人間のドライバーに車両の操作の責任を課しています。一部の高度な運転支援機能は、ドライバーが衝突を回避し、実際に起こった衝突の重症度を軽減することで安全性を促進できますが、すべての自動車技術や機器と同様に、ドライバーはそれらを正しく責任を持って使用する必要があります。」と政府機関の広報担当者が明らかにした。
歴史的で意味のある判決
ただし、テスラは常に、オートパイロットまたは FSD を使用して、いつでも反応してハンドルを握る準備ができている必要があるとドライバーに通知していることを忘れないでください。いずれにせよ、これは歴史的な決定です。これは、米国で広く使用されている運転支援技術に関わる初めての告発である。。この場合は、テスラのオートパイロットです。
Phonandroid でこのブランドのニュースをフォローしていると、このシステムが死亡事故に巻き込まれたのはこれが初めてではないことがわかるでしょう。私たちは覚えています2021年4月にモデルSが衝突し、2人の命が失われた。。 2015 年のオートパイロットの導入以来、NHTSAは、この技術により26件の事故で少なくとも10人が死亡したと推定している。
さらに、この一連の事件が連邦政府機関の動機となった。オートパイロットに関する調査を正式に開始する。これらの調査は現在も進行中ですが、次のことに関連しています。75万台の車両、モデル X、モデル Y、モデル S、およびモデル32014 年から 2021 年の間に流通が開始されました。さらに、この裁判所の決定は、FSD(完全自動運転)に関する初の重大事件, テスラの完全自動運転システム。
FSDも非難
FSD が有効になっている間、テスラ モデル Y が高速道路で間違った車線に進入した、大きなパイルアップを引き起こします。幸いなことに死傷者は報告されていない。しかし、FSD はすぐに新たな論争の中心に立つことになりました。 2022年1月、数人のドライバーが気づいた潜在的に危険な FSD 運転プロファイルの統合。特に「アサーティブ」モードは、テスラにスライディングストップ(一時停止標識、標識、または優先標識で完全に停止しない)を促すことができます。アメリカの交通法に違反する危険な行為。
AP通信の同僚が指摘しているように、米国では自動運転車を取り巻く法律はまだ曖昧すぎます。サウスカロライナ大学の法学教授で、特に自動運転車を研究しているブライアン・ウォーカー・スミス氏の目には、テスラは十分に可能性があるという。刑事的、民事的、または道徳的に有罪とされる可能性がある」それが証明されたらメーカーはアメリカの道路に危険な技術を導入した。現時点では、テスラはこの件についてまだ正式に回答していません。
ソース :AP通信