Tesla Inc.(NASDAQ: (NASDAQ:TSLA) 社のCEOであるElon Musk氏は、同社の全自動運転(FSD)ドライバーアシスタンス技術が3ヵ月以内に人間の運転能力を凌駕すると発言しました。
出来事 Musk氏はインターネットを通じたXとのライブ番組で、同社のFSDが今年第2四半期時点で平均的な人間ドライバーに比べて事故の発生率が低くなり、その後さらに10倍安全になり、最終的にはもはや事故を起こさなくなると述べています。
現在、TeslaのFSDはドライバーの監視が必要ですが、Musk氏は、この技術がソフトウェアの将来のバージョンで自動運転を実現することに楽観的です。
Musk氏は、自らの会社製品を過大評価し、期限内に満たすことができない期限を提供することで知られています。2019年には、Musk氏は自信を持って、2020年までに自動運転ロボタクシーが運用されると語っていました。
昨年、Musk氏は同社が、2025年にはテキサス州とカリフォルニア州で自動運転のModel 3とModel Yを配備すると述べており、そのためには必要な規制承認が得られればだと語っていました。
規制承認保留中 先週初め、米国の自動車安全規制機関である米国国家高速道路交通安全管理局(NHTSA)は、同社の全自動運転ドライバーアシスタンス技術を搭載している2,600,000台のTesla車について、同社の「実際にスマートなサモン」機能の使用が事故の原因であるとする苦情を受けて調査を開始しました。
実際にスマートなサモンとは、同社のスマホアプリを通じてユーザーがリモートで車を自分の方に動かすか、もしくは駐車場などの別の場所に移動させることができる機能を指します。
先月、NHTSAは、同社の全自動運転(FSD)部分運転自動化システムが関与した4つの事故の報告を受けて、同社の車2,400,000台について別の調査を開始しました。 (FSD)。
規制当局はその後、FSDを使用するとテスラが「道路が見えにくい地域」に入った後に4つの事故の報告を特定したと述べた。規制当局によると、見えにくさは太陽の眩しさ、霧、または空中のホコリが原因だという。
規制当局は、その事故の1つで、車は歩行者をひいて死亡させたと追加した。
Benzingaが報じるMobilityの最新情報はこちらで読むことができます。
次の読み物:
写真提供:シャッターストック