El 26 de julio de 2017 a las 22 horas y 23 minutos Jon Hall se salvó de chocar con su auto. Viajaba a bordo de un Tesla Model S por una autopista. A su derecha, se encienden las luces traseras de autos que reducen la velocidad. Intempestivamente, de esa fila emerge uno: con giro a la izquierda, se incorpora de manera inesperada y temeraria al carril por donde circulaba Jon Hall con su Tesla. El susto, un pitido, una maniobra rápida y humana, una expresión final combinada: mezcla de pavor y de salvación.
Era el desenlace de un accidente que no fue, pero que pudo haber alterado el norte de la industria automotriz. El conductor debió repentinamente tomar el control de un vehículo que circulaba con piloto automático para evitar la colisión. Una situación que cubre de suspicacias la función de la vitoreada conducción autónoma. Segundos antes del momento límite, al Tesla Model S lo conducía el Autopilot versión 2.0, un sistema constituido por un radar delantero, ocho cámaras de visión 360°, doce sensores ultrasónicos y controlado por un software que prescinde de la intervención del conductor: entre sus funcionalidades, según el libreto de la marca, es capaz de "llevar una velocidad acorde con las condiciones del tráfico, mantenerse dentro de un carril, cambiar automáticamente de carril y salir de una autopista cuando el destino esté cerca".
El Autopilot es, sin embargo, un servicio complementario. Tesla advierte a su vez que su piloto automático "se encuentra en pleno proceso de implementación y sus características se irán incorporando a medida que se complete su validación". Hay casos que ponderan su desarrollo tecnológico y otras situaciones que cuestionan el desplazamiento de la cognición humana en la conducción vial. En agosto de 2016, el sistema Autopilot del Tesla Model X salvó la vida de Joshua Neally, un abogado estadounidense que sufrió una embolia pulmonar mientras conducía. El vehículo lo trasladó 32 kilómetros hasta el hospital más cercano. "Estoy muy agradecido de haber tenido esta experiencia", dijo Neally. En diciembre del mismo año, en una autopista de Holanda, un Tesla Model X predijo un siniestro vial: notificó la irregularidad a través de un pitido y frenó para evitar el impacto.
Jon Hall es conductor de Uber y estaba transportando a dos pasajeros al momento de la maniobra
Pero el caso Joshua Brown tiñe con un velo oscuro la confiabilidad del sistema de conducción automatizada de Tesla. En mayo de 2016, la inteligencia artificial al servicio de los comandos sufrió la primera víctima fatal. La muerte del estadounidense de 40 años, dueño de un Model S, encendió el debate cultural sobre el avasallamiento de la tecnología al volante. El software no detectó un gran camión que atravesaba una ruta en Florida, las cámaras confundieron el color blanco del tráiler con el blanco del cielo, el radar ultrasonido interpretó que la transversalidad del vehículo simulaba la forma de una señal de tráfico -según informó la compañía-, pero el conductor no iba atento al camino y la velocidad superaba el límite permitido. La justicia eximió de culpas a la compañía.
"Se puede oír el pitido cuando desactivo el piloto automático. Todavía lo amo y estoy agradecido de haber estado prestando atención, algo que todavía se requiere para esta versión", relató Jon Hall en su cuenta de YouTube donde subió el video, que ya cuenta con más de cien mil visualizaciones. "Mientras estaba en piloto automático, alguien se atravesó. Por suerte estaba atento y pudo responder a tiempo. No pareciera que el auto lo hubiera visto", agregó. Sin embargo, en su discurso no condena la utilidad del servicio de Tesla: "En ningún momento culpo al piloto automático. Estoy culpando al conductor idiota que estaba a mi derecha".
LEA MÁS:
Autos videntes: un vehículo autónomo advirtió un accidente antes de que ocurriera
Con los ojos de Tesla: cómo ven el mundo los vehículos autónomos
Cómo funcionan los vehículos inteligentes de Tesla, el sistema que promete revolucionar la industria
Elon Musk dijo que en 2037 tener un vehículo no autónomo será como "tener un caballo"