Tesla ha logrado evitar problemas legales graves relacionados con accidentes fatales causados por sus sistemas de conducción parcialmente automatizados, Autopilot y FSD (Full Self-Driving). Pero el escenario cambia radicalmente con un servicio de transporte completamente autónomo.

El programa piloto de robotaxis de Tesla en Austin, dirigido estrictamente por Elon Musk, logró operar durante 16 días sin accidentes mayores. Sin embargo, el pasado 24 de junio, un Model Y de prueba golpeó ligeramente un Toyota Camry estacionado frente a una pizzería popular. El incidente fue menor, pero ¿qué habría pasado si hubiera atropellado a una persona?

Los inversionistas optimistas de Tesla apuestan a que el sueño de Musk de una flota de robotaxis abrirá una nueva fuente millonaria de ingresos. Sin embargo, ese modelo también conlleva un riesgo inédito para la compañía: la responsabilidad legal derivada de fallas tecnológicas en vehículos autónomos. Los propietarios de Tesla que esperan ganar dinero alquilando sus autos como robotaxis —una idea que Musk promueve desde hace años— podrían ser considerados responsables también.

“Habrá algunos carros que Tesla posea directamente… pero para la flota de nuestros clientes será como Airbnb. Puedes añadir o quitar tu auto de la flota cuando quieras”, dijo Musk en la reunión de accionistas de junio de 2024. “Con un solo toque en la app de Tesla, puedes poner tu carro a generar ingresos mientras no lo usas”.

Pero los dueños que esperan aprovechar esa oportunidad deben pensarlo bien.

“¿Puedo imaginar una demanda contra el dueño del carro? Absolutamente”, dice Mike Nelson, abogado que ha participado en más de mil casos de accidentes con Teslas y cuya startup, QuantivRiv, analiza datos de sensores tras siniestros. Además de demandar a Tesla, anticipa que los abogados de los demandantes podrían ir también contra los propietarios: “Dirán cosas como ‘el vehículo no fue mantenido adecuadamente’ o ‘el dueño ocultó el estado real del carro’”.

“Si un robotaxi de Tesla tiene un accidente, ¿tendrá que levantarse el dueño a las 3 a. m. para ir a hablar con la policía?”, plantea.

El dilema de la responsabilidad

Durante más de una década, Tesla ha advertido que sus funciones Autopilot y FSD no implican conducción autónoma total. El conductor debe estar siempre alerta y listo para tomar el control. Por eso, la empresa no fue considerada legalmente responsable por accidentes como el que en 2016 mató a Joshua Brown en Florida o el de 2018 en que Walter Huang falleció cuando su Model X se estrelló contra una barrera de concreto en California.

Eso cambiaría si un robotaxi de Tesla, sin intervención humana, causa una lesión o muerte.

“Un robotaxi es como un salón móvil donde puedes relajarte, tomar una bebida, ver una película o incluso dormir”, escribió Musk en Facebook. Tesla no respondió a solicitudes de Forbes sobre cómo abordará la responsabilidad legal si un pasajero que duerme o bebe resulta involucrado en un choque.

Waymo, el principal operador de robotaxis en EE. UU., tiene una política clara: si un accidente es culpa suya, asume la responsabilidad. También cubre los gastos médicos de los pasajeros, sin importar quién tenga la culpa. Para William Widen, profesor de derecho en la Universidad de Miami, esa es la vía correcta. Pero plantea una inquietud mayor: “¿Cuál debe ser el estándar legal para esta tecnología?”.

En su opinión, Estados Unidos necesita un estándar nacional para el software de IA: cuando ocurre un accidente, debe juzgarse como si fuera un conductor humano.

“La responsabilidad debe recaer sobre el fabricante o el diseñador, y el estándar legal debe ser el mismo que para una persona”, dice Widen. “En la corte, reconstruyes el accidente y dejas que un jurado —como harías en cualquier accidente común— determine si el ‘conductor’ actuó razonablemente. Lo mismo debe aplicarse a una máquina”.

Términos que pocos leen

El programa piloto de robotaxis en Austin aún es limitado, abierto solo para usuarios seleccionados. Estos deben aceptar términos de uso que advierten que “los pasajeros pueden no llegar a su destino previsto o experimentar interrupciones, incomodidades o molestias durante el servicio”, y que el robotaxi no debe utilizarse para emergencias. Además, cualquier disputa debe resolverse mediante arbitraje.

Hoy, tanto Uber como sus conductores pueden ser considerados responsables en accidentes. Los expertos creen que lo mismo aplicará para Tesla y los dueños de vehículos que los sumen a la red de robotaxis.

Sin embargo, como la idea de “Airbnbear” un carro autónomo es tan nueva, los propietarios podrían enfrentar dificultades al asegurar sus vehículos.

“Será difícil encontrar aseguradoras que respondan con entusiasmo a eso”, advierte Ben Lewis, vicepresidente de Simulytic, empresa que ayuda a diseñar pólizas para flotas autónomas. “Un cliente de seguro particular que quiera alquilar su flota de autos autónomos para generar ingresos es algo que descoloca”.

Además, se necesitaría garantizar que los autos individuales estén en condiciones óptimas. En contraste, los cerca de 2.000 robotaxis de Waymo reciben limpieza, mantenimiento y recarga varias veces al día en centros propios. Tesla no ha explicado si tendrá un sistema similar.

“Rayones, ruedas raspadas, suciedad, asientos gastados, gérmenes… eso nos volvería locos”, dice Loren McDonald, dueño de un Tesla. “Aunque en teoría sea rentable, para mi familia los inconvenientes superarían cualquier ganancia”.

Musk asegura que Tesla tiene una ventaja de costos frente a Waymo, gracias a su uso de cámaras digitales baratas en lugar de lidar, radares o cámaras térmicas, sensores mucho más caros que sí usa la filial de Alphabet. Sin embargo, eso también puede jugar en contra.

“Me sorprendería que un abogado no alegara que Tesla escatimó en seguridad al no usar sensores más confiables”, concluye el abogado Nelson.

Lea más: Trump asegura que no “concederá prórrogas” más allá del 1 de agosto para aplicar aranceles