El conductor de un Tesla Model 3, cazado circulando con las lunas tapadas con un parasol y periódicos: por qué es una imprudencia pese a ser un coche autónomo

Según un informe de la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos publicado en 2021, el 70% de los accidentes de conducción automática involucraban vehículos Tesla

Guardar
Un vehículo Tesla circula con
Un vehículo Tesla circula con periódicos en el parabrisas

Tesla lanzó su función de piloto automático de asistencia al conductor en 2016 y su función de “conducción autónoma total” (FSD) en noviembre de 2022. El conocido como ‘Autopilot’ de Tesla llegó al mercado como una verdadera revolución. Y no era para menos. ¿Quién no ha soñado alguna vez con tener su propio “Coche Fantástico”?

A pesar del bonito nombre que recibe esta función, lo cierto es que el software ha generado controversia desde su lanzamiento ante los numerosos problemas que denuncian sus usuarios: desde accidentes provocados por el sistema de piloto automático hasta informes de ‘frenado fantasma’. Aunque la publicidad de esta marca invite a soñar, hay que recordar que el vehículo totalmente autónomo de Tesla es solo de nivel 2 de seis niveles.

A pesar de las advertencias, algunos usuarios han llevado el uso del Autopilot al extremo. El último caso es el de un propietario de un Tesla Model 3 que decidió ignorar este último dato y procedió a cubrir el parabrisas y las ventanillas de su vehículo mientras circulaba por la autopista en California, confiando en que el sistema de conducción autónoma del coche lo llevaría a su destino sin necesidad de intervención humana. La molestia del sol fue la razón que llevó al conductor a cubrir las ventanas, una decisión que puso en riesgo no solo su seguridad, sino también la de otros usuarios de la vía. Este comportamiento ha sido calificado por las autoridades como irresponsable, ya que el sistema no está diseñado para operar sin supervisión del conductor.

El Autopilot de Tesla, junto con su sistema de “capacidad de conducción autónoma total” (FSD, en sus siglas en inglés), ha sido promocionado como una tecnología avanzada que puede asistir en la conducción. Sin embargo, en la práctica, estos sistemas requieren que el conductor mantenga la atención en la carretera y las manos en el volante. Las autoridades han obligado a Tesla a implementar sistemas de aviso para evitar que los conductores se desentiendan de la conducción, especialmente a altas velocidades.

El Tesla Model 3 y el Model Y son conocidos por su eficiencia energética y su red de cargadores dedicados, lo que les otorga una ventaja competitiva en el mercado de vehículos eléctricos. Sin embargo, la calidad de los acabados y algunas decisiones técnicas han sido objeto de críticas. A pesar de esto, el precio accesible de estos modelos sigue siendo un atractivo para los consumidores.

Desde el lanzamiento del Autopilot, las redes sociales se han llenado de videos de conductores que confían ciegamente en el sistema, realizando actividades como dormir o jugar a las cartas mientras el coche está en movimiento. Este comportamiento ha llevado a las autoridades a exigir a Tesla que implemente medidas de seguridad adicionales para garantizar que los conductores permanezcan atentos.

Tesla, multado por publicidad engañosa

Muchos usuarios han criticado a la marca de Elon Musk por su “publicidad engañosa” en la que el magnate promociona el vehículo como una auténtica revolución. Según un informe de la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos publicado en 2021, el 70% de los accidentes de conducción automática involucraban vehículos Tesla.

El pasado febrero de 2024, Corea del Sur multó a la compañía norteamericana con 2,2 millones de dólares por supuesta publicidad falsa sobre la conducción autónoma y sus modos de piloto automático y piloto automático mejorado. A su vez, en 2022 varios clientes en EEUU interpusieron una demanda colectiva, todavía en curso, por la misma razón.

Guardar