米国国家高速道路交通安全局(National Highway Traffic Safety Administration、NHTSA)が、電動車大手Tesla Inc(NASDAQ:TSLA) に対して、同社のフルセルフドライビング(FSD)運転支援ソフトウェアの公称に関して、ソーシャルメディア企業Xによる投稿に懸念を示した。
出来事TeslaのFSD技術は、運転手の監視を必要とする運転支援技術である。車両所有者マニュアルとYouTube動画では、この技術は自動車を自動運転させるものではないと説明されているが、自動車安全規制当局は5月14日付でTesla宛に送付した手紙で、「投稿には『運転手不在の挙動が見られる』という内容の投稿も報告もされている」と記述した。この手紙は金曜日に公開された。
「当局はTeslaの投稿が、運転手に動的な運転の課題に対する継続的なコントロールを維持することが求められているという規制当局の説明と矛盾していると考えている。同様に、我々は、これらの投稿が、運転手に対して、自動運転ではなく、部分的な自動化/運転支援システムであるFSD-Supervisedを、職業運転手やルンバ(自動掃除機)と同様の存在として認識させるような投稿であるとも指摘する」と規制当局は述べ、Teslaに対してその発信内容を再検討するよう要請した。規制当局は、自動車所有者のマニュアルよりも社交メディアの投稿が一般市民とのコミュニケーションが優れているとも指摘した。
今回の出来事のポイント昨年10月、NHTSAはFSDが関与した4回のクラッシュの報告を受け、Tesla製車両約240万台について調査を開始した。
規制当局は、FSDを作動させたまま「視界不良の道路区間」に入った結果、Tesla車がクラッシュした4回の事故報告を特定したと述べた。規制当局によると、視界不良が原因で事故が発生したのは、強い日差し、霧、または空中のほこりが理由である。規制当局は、そのうちの1件の事故で、Tesla車は歩行者をはねて死なせてしまったとも述べた。
規制当局は、同社が認識している事故の詳細を提出するように求め、調査の一環として、Teslaには12月18日までに質問に回答する時間を与えた。
昨年12月、Teslaは、そのAutopilot(Teslaの高度な運転支援機能である、オートステアのすべてのバージョンが搭載された車両240万台以上をリコールしたと発表。会社は、この機能のコントロールを誤用防止に不十分だと判断し、セーフガードを強化すると発表した。しかし、NHTSAは、このリコールの解決策の適切さを測定するため、4月に調査を開始した。
Benzingaが「自動車産業の未来」についてもっと見たい方は、こちらのリンクをクリックしてください。
編集部おすすめの読みもの
写真提供:Shutterstock