Un jurado de Florida ha condenado a Tesla a pagar 243 millones de dólares por la muerte de Naibel Benavides, el 25 de abril de 2019. Ha sido declarada un 33% culpable de la muerte de la chica de 22 años.
Ese día George McGee conducía su Tesla Model S con el Autopilot puesto. Cuando se aproximaba a un cruce se le cayó el móvil e intentó recogerlo mientras mantenía el pie en el acelerador. El vehículo chocó contra un SUV que estaba aparcado correctamente matando a la chica e hiriendo a su novio. El Tesla iba a más de 80 km/h.
Somos responsables del 66% de las consecuencias del mal uso de la tecnología
Los abogados de Tesla argumentan que el pie en el acelerador impidió que el Autopilot evitara el encontronazo. Aparte, el manual está claro cuando dice que “es responsabilidad del conductor estar alerta, conducir con seguridad y controlar el vehículo”. En el caso del Sr. McGee: cero de tres. Sin embargo, el jurado le ha declarado culpable sólo al 66%.
Hay dos razones que lo explican: una tecnológica y la otra psicológica.
En el momento del accidente, el conductor no estaba mirando la carretera ni tenía las manos al volante. Recordemos que estaba atareado en encontrar el móvil. Sin embargo, el Autopilot permitió que sin “estar alerta, conducir con seguridad y controlar el vehículo” pasara un cruce a más de 80 km/m. Otros fabricantes utilizan cámaras que controlan si el conductor está mirando la carretera y emiten un aviso.
La razón de cariz psicológico es más sutil y al mismo tiempo más profunda. Autopilot podemos traducirlo por piloto automático, un término connotado y que lleva a equívoco. Los demandantes acusaron a Tesla de “desinformar” con vídeos trucados y con afirmaciones engañosas como que “nuestro sistema de conducción es más seguro que un humano”.

Coches de Tesla en un concesionario
Todo esto hace que el conductor de un Tesla, cuando va con el Autopilot activado, tenga una falsa sensación de seguridad que le lleva bajar la guardia; a medida que el coche toma decisiones acertadas, aumenta la confianza en que la próxima también lo será. Hasta que no lo es.
La Sociedad de Ingenieros de Automoción (SAE) define 6 niveles de automatización de la conducción, que van del 0 -sin automatización- a la automatización total del nivel 5. Las campañas de Tesla, las promesas incumplidas de Musk y el propio nombre Autopilot nos sitúan de forma velada en el nivel 5, y no: los Tesla tienen nivel 3. Este decalaje entre capacidades reales de un sistema y su percepción lleva a la falsa sensación de seguridad.
Pero esto no es exclusivo de los Tesla. Ni siquiera de los automóviles. Estamos expuestos a ello siempre que utilizamos un sistema de predicción basado en IA como ChatGPT, Copilot, Claude o Autopilot. Cuando nos asiste en la investigación, la escritura de código de programación o en simulaciones financieras nunca podemos estar seguros de si podemos estar seguros. Y esto nos hace un 66% responsables de sus consecuencias negativas.