Especial para Infobae de The New York Times.
En agosto de 2019, Benjamin Maldonado y su hijo adolescente regresaban de un torneo de fútbol por una autopista de California cuando un camión que iba enfrente de ellos se detuvo. Maldonado encendió su direccional y se cambió al carril de la derecha. En segundos, su camioneta “pick-up” Explorer de Ford recibió el impacto de un Model 3 de Tesla que viajaba a unos 96 kilómetros por hora en Autopilot.
Un video de seis segundos que captó el Tesla y los datos que registró muestran que ni Autopilot —el elogiado sistema de Tesla que puede manejar, frenar y acelerar un auto por sí solo— ni el conductor bajaron la velocidad del vehículo sino hasta una fracción de segundo antes del accidente. Jovani Maldonado, de 15 años, quien iba en el asiento del copiloto y no tenía puesto el cinturón de seguridad, fue expulsado de la Ford y murió, según un informe policiaco.
El accidente ocurrió a 6 kilómetros de la principal fábrica de autos de Tesla, y ahora es el centro de una demanda en contra de la empresa. El incidente forma parte de una cantidad creciente de choques en los que ha estado involucrado Autopilot, los cuales han generado inquietud en torno a los problemas de la tecnología y podrían poner en tela de juicio el desarrollo de sistemas similares de automotrices rivales. Además, ahora que los autos realizan más tareas que antes hacían los humanos, el desarrollo de estos sistemas podría tener consecuencias significativas, no solo para los conductores de esos autos, sino también para otros conductores, peatones y ciclistas.
Tesla, fundada en 2003, y su director ejecutivo, Elon Musk, han sido audaces para desafiar a la industria automotriz, al atraer seguidores y clientes devotos y crear un nuevo estándar para los vehículos eléctricos que se ha convertido en la referencia de otras automotrices consagradas. El valor de la empresa es superior al de la suma de varias automotrices grandes.
Sin embargo, los accidentes en los que está involucrado Autopilot podrían amenazar la posición de Tesla y forzar a los reguladores a tomar medidas en contra de la empresa. La Administración Nacional de Seguridad del Tráfico en las Carreteras tiene unas dos docenas de investigaciones activas sobre accidentes en los que está implicado Autopilot.
Desde 2016, al menos tres conductores de Tesla han muerto en accidentes en los que Autopilot no detectó obstáculos en el camino. En dos ocasiones, el sistema no frenó cuando semirremolques se cruzaron la autopista. En la tercera, no reconoció una barrera de concreto. En junio, la agencia federal de seguridad en el tráfico divulgó una lista en la que desde 2016 al menos diez personas habían perdido la vida en ocho accidentes en los que se había usado Autopilot. Esta lista no incluye el accidente en el que murió Jovani Maldonado.
La credibilidad de Tesla ha recibido un golpe y algunos expertos en vehículos autónomos aseguran que es difícil no cuestionar otras aseveraciones de Musk y la empresa. Por ejemplo, Musk ha dicho varias veces que Tesla estuvo cerca de perfeccionar Full Self Driving, una tecnología que iba a permitir que los autos se condujeran solos en la mayoría de las circunstancias, un logro que está a años de distancia, según otras empresas tecnológicas y automotrices.
Musk y Tesla no respondieron a varias solicitudes para ofrecer comentarios.
Autopilot no es un sistema de conducción autónoma. Más bien, es un paquete de software, cámaras y sensores que tienen como objetivo ayudar a los conductores y evitar accidentes al quedar a cargo de muchos aspectos de la conducción de un auto, incluso el cambio de carriles. Los ejecutivos de Tesla han asegurado que conducir será más seguro si estas funciones están bajo el control de computadoras porque los choferes humanos son propensos a cometer errores y distraerse, y provocan la mayoría de las más o menos 40.000 muertes de tránsito que ocurren cada año en Estados Unidos.
“Las computadoras no revisan su Instagram” mientras manejan, comentó el mes pasado el director de inteligencia artificial de Tesla, Andrej Karpathy , en un taller en línea sobre conducción autónoma.
Mientras Autopilot tiene el control, los conductores se pueden relajar, pero en teoría no se pueden desconectar. En cambio, se supone que deben tener las manos en el volante y los ojos en el camino, listos para tomar el control en caso de que el sistema se confunda o no logre reconocer objetos o escenarios peligrosos de tránsito.
Sin embargo, como no tienen mucho más que hacer que mirar al frente, algunos conductores parecen incapaces de resistir la tentación de poner a vagar su atención mientras Autopilot está encendido. En Twitter y otros sitios, se han publicado videos donde aparecen conductores leyendo o durmiendo tras el volante de los Tesla.
Con frecuencia, la empresa ha responsabilizado a los conductores de sus autos y en algunos casos los ha culpado de no mantener las manos en el volante y los ojos en el camino mientras usan Autopilot.
Sin embargo, la Junta Nacional de Seguridad en el Transporte, una agencia que ha completado investigaciones sobre los accidentes en los que se usó Autopilot, ha mencionado que el sistema carece de salvaguardas para evitar su mal uso y no monitorea de manera efectiva a los conductores.
General Motors, Ford Motor y otras empresas automotrices ofrecen sistemas similares que usan cámaras para vigilar los ojos de los conductores y emiten advertencias cuando alejan la vista del camino. Después de algunas advertencias, el sistema Super Cruise de GM se apaga y le pide al conductor que tome el control.
Autopilot no vigila los ojos del conductor y tan solo monitorea si las manos están en el volante. A veces, el sistema sigue operando aunque los conductores tengan las manos en el volante tan solo unos segundos.
“Este sistema de monitoreo en esencia es débil porque es fácil engañarlo y no monitorea todo el tiempo”, comentó Raj Rajkumar, un profesor de la Universidad Carnegie Mellon que se especializa en la tecnología de la conducción autónoma.
La Administración Nacional de Seguridad del Tráfico en las Carreteras no ha obligado a Tesla a cambiar o desactivar Autopilot, pero en junio declaró que le iba a exigir a las automotrices que informaran sobre los accidentes en los que estuvieran involucrados esos sistemas.
Tan solo este año, se han presentado varias demandas en contra de Tesla, entre ellas una en abril en un tribunal del estado de Florida que está relacionada con un accidente en Cayo Largo. Un Model S de Tesla con Autopilot no logró detenerse en una intersección en T y se estrelló en una Tahoe de Chevrolet que estaba estacionada en el arcén: el accidente cobró la vida de Naibel León, de 22 años. En mayo, Darl Kyle, de 55 años, presentó otra demanda en California, porque sufrió lesiones graves en la columna vertebral cuando un Tesla en Autopilot chocó por detrás la vagoneta que conducía.
El choque que mató a Jovani Maldonado es un caso extraño en el que han estado disponibles el video y los datos del auto Tesla. El abogado de la familia Maldonado, Benjamin Swanson, los obtuvo de Tesla y se los compartió a The New York Times.
Benjamin Maldonado y su esposa, Adriana García, presentaron su demanda en el Tribunal Superior del condado de Alameda. Según su queja, Autopilot contiene defectos y no reaccionó frente a las condiciones del tráfico. La demanda también nombra como acusados al conductor del Tesla, Romeo Lagman Yalung de Newark, California, y a su esposa, Vilma, quien es la dueña del vehículo y estaba en el asiento del copiloto.
Yalung y su abogado no respondieron a las solicitudes para ofrecer comentarios. Él y su esposa, quienes no reportaron lesiones en el accidente, todavía no atienden la queja de la familia Maldonado en el tribunal.
En documentos judiciales, Tesla aún no responde a la acusación de que Autopilot tuvo un mal funcionamiento o es defectuoso. En correos a la firma de Swanson que se han presentado como documentos probatorios en el tribunal, un abogado de Tesla, Ryan McCarthy, comentó que el conductor era el responsable, no Tesla.
“La policía responsabilizó al conductor del Tesla —no al auto— por su falta de atención y por conducir a una velocidad peligrosa”, escribió McCarthy, quien no respondió a los correos electrónicos para ofrecer comentarios.
Los datos y el video brindaron una mirada detallada a la manera de operar de Autopilot en los segundos previos al accidente. Los vehículos Tesla todo el tiempo graban videos cortos desde las cámaras que apuntan hacia adelante. Si ocurre un accidente, el video se guarda de modo automático y se sube a los servidores de Tesla, comentó un representante de la empresa en correos electrónicos incluidos en los documentos probatorios que presentó Swanson.
El video que guardó el auto que conducía Yalung lo muestra rebasando vehículos por la derecha y la izquierda. Cuatro segundos antes del impacto, Maldonado encendió sus direccionales. Parpadearon cuatro veces mientras su Explorer estaba en su carril original. Un quinto parpadeo ocurrió cuando su camioneta estaba en ambos carriles. En los documentos judiciales, Maldonado mencionó que por el espejo retrovisor se percató de que el Tesla se estaba acercando con rapidez e intentó regresar a su carril.
En la mayor parte del video, el Tesla mantuvo una velocidad de 111 kilómetros por hora, pero justo antes del impacto aumentó un poco en el último segundo, a 112 kilómetros por hora, de acuerdo con datos del auto.
La camioneta de Maldonado se volteó y se estrelló contra una barrera, según el informe policiaco. Tenía destrozado el parabrisas, se le dobló el techo y tenía suelto el eje trasero. El Tesla tenía el techo doblado, el frente destrozado, el parachoques estaba parcialmente separado y el parabrisas trizado.
Jovani Maldonado fue encontrado boca abajo en el arcén de la autopista Interestatal 880, mientras se formaba un charco con su sangre.