La NHTSA expresó su preocupación por las publicaciones en las redes sociales de Tesla que sugerían que su software de conducción autónoma total se puede utilizar como un robotaxi y no necesita la atención del conductor.

En octubre, la NHTSA abrió una investigación sobre 2,4 millones de vehículos Tesla con software FSD después de cuatro colisiones reportadas, incluido un accidente fatal en 2023, en condiciones que incluían resplandor solar, niebla y polvo en el aire.

En un correo electrónico del 14 de mayo hecho público el viernes, la NHTSA le dijo a Tesla que sus publicaciones en las redes sociales podrían alentar a las personas a ver al FSD como un robotaxi “en lugar de un sistema de automatización parcial/asistencia al conductor que requiere atención persistente e intervención intermitente por parte del conductor”.

La NHTSA citó publicaciones de Tesla en X, incluida la publicación de la historia de un individuo que optó por usar FSD para conducir 13 millas desde su casa hasta la sala de emergencias durante un ataque cardíaco, junto con otra que muestra un viaje de 50 minutos a casa usando FSD desde un evento deportivo.

“Creemos que las publicaciones de Tesla entran en conflicto con su mensaje declarado de que el conductor debe mantener un control continuo sobre la tarea de conducción dinámica”, escribió la NHTSA, pidiendo a Tesla que revise sus comunicaciones.

Tesla, que se reunió con la agencia en mayo a propósito de las publicaciones en las redes sociales, dijo a la NHTSA que su manual del propietario y en otros lugares les dice a los conductores que el vehículo no es autónomo y que deben permanecer atentos.

Tesla no hizo comentarios de inmediato. Elon Musk es el director ejecutivo de Tesla y propietario de X, el sitio de redes sociales anteriormente conocido como Twitter.

El 8 de noviembre, la NHTSA publicó una carta fechada el 11 de noviembre a Tesla solicitando respuestas a las preguntas de su investigación antes del 18 de diciembre, incluida la “posible falla del sistema de asistencia al conductor en su funcionamiento, incluida la detección y respuesta apropiada en situaciones específicas en las que hay una visibilidad reducida en la carretera que puede limitar la capacidad del FSD para operar de manera segura”.

La NHTSA agregó que su “investigación considerará la idoneidad de la retroalimentación o información que el sistema proporciona a los conductores para permitirles tomar una decisión en tiempo real cuando se ha excedido la capacidad del sistema”.

Una mujer de 71 años que salió de un vehículo luego de una colisión trasera con otros dos vehículos murió en Rimrock, Arizona, cuando fue golpeada por un Tesla en modo FSD con un conductor que luchaba contra el resplandor del sol y que no fue acusado.

En diciembre de 2023, Tesla acordó retirar más de 2 millones de vehículos en Estados Unidos para instalar nuevas medidas de seguridad en su sistema avanzado de asistencia al conductor Autopilot, bajo presión de la NHTSA, que todavía está evaluando la idoneidad de dichas medidas.