Versión beta de conducción autónoma de Tesla choca durante prueba

Un Tesla que usaba el sistema “Full-Self Driving Beta” (o “FSD Beta”, la versión beta del asistente de conducción autónoma completa), o como también lo llamamos, el sistema de asistencia al conductor de nivel 2 de Tesla, chocó con algo y fue captado por la cámara.

El YouTuber y usuario de este sistema de conducción autónoma (que recordamos, esta en beta) conocido como AI Addict, publicó un video que muestra el auto chocando contra un bolardo que se usa para proteger un carril para bicicletas.

“Mierda. Golpeamos eso”, se puede escuchar durante el video después de que el Model 3 dio un giro demasiado brusco en una esquina a la derecha. No fue un choque grave, aunque quedó pintura verde en el parachoques del automóvil.

Este fue claramente un incidente con FSD Beta en el que el conductor realmente estaba prestando atención, a pesar de que el auto se conducía a sí mismo. El conductor incluso intenta corregir la situación cuando el auto gira demasiado a la derecha, pero claramente fue demasiado tarde.

Por si fuera poco, golpear el bolardo podría no haber sido la peor maniobra de conducción en el video de 9 minutos. Se puede ver que el auto pasa un semáforo en rojo y se mete en un carril de tranvía, entre otras maniobras francamente peligrosas.

Por supuesto, los fanáticos de Elon Musk y apologistas de Tesla ya han dicho en los comentarios que el conductor no estaba prestando suficiente atención, o que FSD todavía está en Beta y es necesario resolver sus problemas técnicos.

El propio Musk ha afirmado que el sistema FSD Beta no ha tenido un solo accidente hasta el pasado mes de enero, a pesar de que el propietario de un Model Y que usaba FSD Beta afirmó en una queja ante la Administración nacional de seguridad del tráfico en las carreteras de Estados Unidos (NHTSA) que el sistema causó un accidente en noviembre de 2021.

Hay que tener en cuenta que todo este incidente lo vemos en un solo recorrido que fue registrado por la cámara. No hay una forma real de saber con qué frecuencia los autos ponen en peligro a los propietarios. Y aún más preocupante es este video que muestra cómo FSD Beta está poniendo en peligro a peatones inocentes y otros conductores, es decir, personas que no han elegido ser parte de una prueba Beta de un sistema de conducción autónoma sino que intentan hacer su vida normal en el día a día.

Esta no fue la primera y ciertamente no será la última vez que un Tesla que usa FSD Beta choca con algo. Y es solo cuestión de tiempo que ese “algo” no sea un bolardo verde.

Puedes ver el video completo de AI Addict aquí:

 

Salir de la versión móvil