Tesla que chocó a camión de bomberos en fatal accidente podría haber usado autopilot según NHTSA

0
226
Tesla chocó camión de bomberos autopilot NHTSA
Imagen cortesía de Carscoops - Tesla chocó camión de bomberos autopilot NHTSA

Durante las primeras horas de la mañana del sábado 18 de febrero, un Tesla Model S chocó contra un camión de bomberos estacionado en la I-680 en California, y hoy, los informes sugieren que la NHTSA estaría investigando el uso de autopilot. Cabe resaltar que en su momento, no se llegó a esta conclusión. Pero actualmente la NHTSA no solo cree que alguna forma de software de conducción autónoma estaba activa en el momento del accidente, sino que envió un equipo especial para investigar más a fondo.

Tesla chocó camión de bomberos por autopilot según la NHTSA

El accidente acabó con la vida del conductor del Tesla e hirió al único otro pasajero. Según la información, el camión de bomberos estaba estacionado en diagonal en el carril en un esfuerzo por proteger a otros trabajadores de emergencia cuando ocurrió el accidente. Al momento del impacto cuatro bomberos estaban abrochados dentro del camión y resultaron ilesos.

En su momento, las autoridades aclararon específicamente que se desconocía la causa. Si bien no descartaron la posibilidad de que el software autónomo Autopilot o Full Self-Driving de Tesla estuviera activo, tampoco descartaron la posibilidad de que las drogas o el alcohol pudieran haber influido. No obstante, actualmente, numerosos informes dicen que es probable que se haya activado el software de conducción autónoma.

Imagen cortesía de Carscoops – Tesla chocó camión de bomberos autopilot NHTSA

De acuerdo con Associated Press, los investigadores consideran que el Model S estaba usando un sistema de conducción automatizado y que la NHTSA «envió un equipo especial de investigación de accidentes para investigar el accidente del 18 de febrero». Tal acción se encuentra en línea con una investigación más amplia que la NHTSA tiene sobre las funciones de conducción autónoma de Tesla. Hasta hoy, al menos 15 Tesla se han estrellado contra vehículos de emergencia mientras se activaba el software de conducción autónoma.

TE PUEDE INTERESAR:

La compañía de eléctricos requiere que los conductores acepten la responsabilidad de la seguridad siempre que una función autónoma esté activa. El gran problema es que no todos los conductores hacen eso y los humanos no suelen ser buenos en ese tipo de tareas. Además, tal parece que aun existe la posibilidad de que las drogas y el alcohol hayan jugado un papel aquí.

Particularmente, la NHTSA exigió a Tesla que retirara más de 350,000 vehículos en febrero debido a las preocupaciones sobre su función de conducción autónoma total. Al respecto expresó que “el sistema FSD Beta puede permitir que el vehículo actúe de manera insegura”. A la par, las estadísticas autoinformadas del fabricante respecto al autopilot y la conducción autónoma completa sugieren que ya es más seguro que un conductor humano.

Fuente: Carscoops