Elon Musk aseguró que un Tesla podría recorrer todo EEUU sin un conductor a bordo, pero la realidad sería otra

Por Drew Harwell (The Washington Post)

Guardar
Elon Musk busca innovar continuamente. Ahora, con un chip inteligente para autos Tesla (Getty)
Elon Musk busca innovar continuamente. Ahora, con un chip inteligente para autos Tesla (Getty)

Un domingo a principios de este mes, la esposa de Mangesh Gururaj se fue de casa para recoger a su hijo que estaba en clase de matemáticas. Encendió su Tesla Model S y presionó el botón "Summon", una función de estacionamiento automático que el fabricante de automóviles eléctrico ha promovido como un paso importante hacia la automatización y autonomía de los vehículos.

Pero cuando el sedán de USD 65.000 salió del garaje, según Gururaj, el auto golpeó abruptamente contra una pared, rompiendo su parte delantera con un fuerte crujido. El mutilado Tesla habría seguido corriendo si su esposa no hubiera pisado el freno.

Nadie resultó herido, pero Gururaj se estremeció: el auto había fallado durante las maniobras más simples, utilizando una de las características más básicas de la tecnología de conducción automática en la que él y su familia habían confiado en innumerables ocasiones a mayor velocidad.

"Esto fue un choque en el garaje. Eso tiene arreglo. Pero, ¿y si hubiésemos estado con esa función y hubiera habido un niño?", comentó el hombre, un consultor de IT (tecnologías de la información) de Carolina del Norte, que compró el auto el año pasado. "Tenía mucha confianza en Tesla, como vehículo, pero ya no… Estás hablando de una gran responsabilidad, y tu vida está en juego".

Los accidentes es algo embarazoso para una tecnología que el director de Tesla, Elon Musk, presentó en 2016 con gran fanfarria, diciendo que pronto permitiría a los propietarios presionar un botón y que los autos pudieran manejar solos por todo el país.

Pero el accidente también resalta el creciente problema de confianza que enfrenta la tecnología de asistencia en la conducción y a los propios autos sin conductor. La promesa de los vehículos "casi mágicos", asistidos por robots, han dado paso a una realidad más matizada: autos que también se desvían, se confunden o se bloquean, a menudo, con pocas advertencias o explicaciones.

No es la primera vez que se cuestiona la seguridad y las capacidades de la función "Summon". En 2016, un propietario de Tesla en Utah afirmó que su Model S se volvió "rebelde" después de haberlo estacionado, y empezó a dar tumbos hasta que se empaló bajo un remolque estacionado. Tesla indicó que los registros del auto mostraban que el propietario era el culpable, pero luego actualizó la función con una nueva característica que podría haber evitado el accidente.

Cuando se le preguntó por los detalles sobre el accidente de Gururaj, un vocero de Tesla apuntó únicamente al manual del propietario del auto, que invoca una "función beta" y dice que el auto no puede detectar una variedad de objetos comunes, incluyendo cosas como un parachoques o una bicicleta.

Los sistemas de asistencia al conductor, como el "Autopilot" de Tesla, han estado involucrados en una pequeña fracción de los accidentes automovilísticos del país, y las compañías que desarrollan las tecnologías dicen que, a largo plazo, aumentarán la seguridad del tráfico y salvarán vidas. El escrutinio de las extrañas colisiones, añaden, está mal orientado en un país donde más de 40.000 personas murieron en la carretera el año pasado.

Pero las causas de las colisiones son, a menudo, un misterio, dejando a los conductores como Gururaj profundamente enervados por la posibilidad de que pueda volver a suceder algo así. Las empresas imponen un acceso restringido a los registros de la computadora interna de los automóviles y, generalmente, revelan poco sobre lo que salió mal, diciendo que la información sobre cómo los sensores y las computadoras de los autos interactúan es de propiedad exclusiva y debe mantenerse en secreto en una industria tan competitiva como esa.

Esa incertidumbre ha contribuido a la aprensión entre los conductores acerca de una tecnología aún no probada para uso público. Dos encuestas publicadas en julio por el think tank Brooking Institution y las organizaciones sin fines de lucro Advocates por Highway and Auto Safety encontraron que más del 60 por ciento de los estadounidenses encuestados dijeron que no estaban dispuestos a viajar en un auto sin conductor y estaban preocupados por compartir la carretera con estos vehículos.

Tesla ha dicho que los propietarios deben monitorear continuamente el movimiento y el entorno de su vehículo, y estar preparados para detenerse en cualquier momento. Pero Tesla, al mismo tiempo, lanza su tecnología de conducción autónoma como más capaz que los conductores humanos: el sitio web de Tesla promete "hardware autónomo completo en todos los autos", diciendo que operan "a un nivel de seguridad sustancialmente mayor que el de un conductor humano".

Cathy Chase, presidente de Advocates for Highway and Auto Safety, indicó que la estrategia de Tesla de probar tecnologías beta con conductores normales en las vías públicas es "muy peligrosa".

"La gente se adormece con una falsa sensación de seguridad", acerca de cuán seguros o capaces son realmente los autos. "El enfoque de Tesla es arriesgado en el mejor de los casos y mortal en el peor".

El piloto automático de Tesla ha estado involucrado en accidentes más graves. En 2016, un propietario de Tesla en Florida murió cuando su Model S, en modo "Autopilot", se estrelló contra un tractor que cruzaba frente a él en la carretera. El auto no disminuyó la velocidad ni se detuvo para evitar el choque, pero los investigadores federales de seguridad vial no citaron a la compañía por ningún defecto de seguridad, diciendo que la función de piloto automático necesitaba la "atención continua y completa" de un conductor.

Este año, en California, varios vehículos de Tesla se han estrellado contra vehículos de policía y de bomberos mientras utilizaban esa misma función. La Junta Nacional de Seguridad en el Transporte está investigando otro accidente en el que el piloto automático estuvo involucrado y durante el cual un conductor de California murió después de que su Model X acelerara, en 3 segundos, automáticamente hasta 112 kph estrellándose contra una valla de la carretera.

Tesla ha culpado a algunos de los últimos accidentes al error humano, lo que sugiere que las personas en el asiento del conductor, inadvertidamente, han pisado el pedal o no han prestado atención. La compañía también diseñó los autos para advertir repetidamente a los conductores que se mantengan alertas y que muestren notificaciones cuando, por ejemplo, las manos del conductor no puedan detectarse en el volante.

Gururaj explicó que Tesla sacó remotamente los registros de la computadora del auto para investigar el accidente en el garaje de su casa. Pero la compañía ya avanzó que no compartiría ninguna información sobre lo sucedido y aclaró que "usted es responsable de la operación de su vehículo incluso durante el modo 'Summon'".

La familia de Gururaj había usado esa función cientos de veces antes en el último año ya que pensaban que "era la mejor característica". Después de eso, el hombre dijo que dejará de usar ese tipo de funciones por temor a que no funcionen mientras maneja. También indicó que estaba desconcertado por la respuesta de Tesla al cuestionar por qué el humano no intervino con la suficiente rapidez, en lugar de por qué el auto se estrelló contra una pared.

"Quieren que confiemos en la tecnología porque su tiempo de respuesta es más rápido que el de los humanos. Este es todo el concepto de automatización. Para ellos, decir que detenerlo depende del cliente, es realmente preocupante. Si el auto no puede detectar algo en el frente o en el costado, entonces no deberían poner eso como una característica, porque tu vida está en juego".

Guardar