Elon Musk no deja de promocionar el software basado en IA, y conseguir que más gente lo compre es clave para su nuevo y enorme paquete salarial. Pero en una prueba reciente, ignoró las señales de tráfico habituales e incluso una señal intermitente de parada de autobús escolar, aplastando al niño maniquí "Timmy".
EIon Musk promueve incansablemente a Tesla como un actor clave en la conducción autónoma, tanto en el mercado de robotaxis como en el de vehículos personales basados en su sistema de conducción autónoma completa. Su impresionante paquete salarial de un billón de dólares incluye la puesta en circulación de un millón de robotaxis Tesla y 10 millones de usuarios activos de FSD durante la próxima década, por lo que su éxito lo beneficia económicamente.
Queda por ver si eso es alcanzable, pero una evaluación de Forbes de la última versión de FSD encontró que sigue siendo propenso a errores. Durante una prueba de manejo de 90 minutos en Los Ángeles, en barrios residenciales y autopistas, el Modelo Y 2024 con el hardware y software más reciente de Tesla (Hardware 4, FSD versión 13.2.9) ignoró algunas señales de tráfico estándar y los límites de velocidad publicados; no redujo la velocidad en un cruce de peatones con una señal intermitente y personas presentes; hizo cambios de carril innecesarios y aceleró en momentos extraños, como al salir de una autopista concurrida con una luz roja al final de la rampa. Tampoco hay indicios de que la compañía haya solucionado un problema técnico preocupante identificado hace dos años : detenerse ante una señal intermitente de autobús escolar que indica que los niños pueden estar a punto de cruzar una calle.
De hecho, hay tantos problemas fáciles de encontrar con la función, recientemente rebautizada como “Conducción autónoma total (supervisada)”, que plantea una pregunta: ¿por qué la función de 8.000 dólares, que también requiere una suscripción de 99 dólares al mes, es legal en su forma actual?
Resulta que hay una respuesta sencilla: «Los sistemas de asistencia a la conducción no están regulados, por lo que no hay preocupaciones sobre su legalidad», afirmó Missy Cummings, profesora de la Universidad George Mason y experta en IA que ha asesorado a la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) en materia de vehículos autónomos. «La NHTSA tiene la autoridad para intervenir, pero hasta ahora solo lo ha hecho en casos de mala supervisión del conductor».
Señales de carretera cerrada y de no entrar
Nueve años después de que el primer propietario de un Tesla en EE. UU. falleciera en un accidente mientras usaba el software de asistencia al conductor Autopilot de la compañía (Joshua Brown, en mayo de 2016), los reguladores estadounidenses aún no han establecido normas claras para la llamada tecnología de asistencia al conductor de Nivel 2 (la categoría a la que pertenece el FSD), más allá de exigir la monitorización en la cabina para garantizar que los conductores humanos presten atención a las condiciones de la carretera. Esta laguna legal crea una oportunidad para que Musk promueva el FSD, implementado por primera vez en 2020, como una función que proporciona una conducción prácticamente autónoma con una intervención humana mínima, según la pantalla del coche. Y como métrica para su futuro paquete de compensación, su adopción más amplia le resulta enormemente lucrativa.
La NHTSA, que abrió una investigación el mes pasado sobre la omisión de Tesla en reportar accidentes relacionados con el FSD y el Autopilot de manera oportuna, declaró que “no preaprueba nuevas tecnologías ni sistemas vehiculares”. En cambio, corresponde a los fabricantes de automóviles certificar que los vehículos y las tecnologías cumplen con las normas federales de seguridad. Si una investigación determina que un sistema no es seguro, “la NHTSA tomará las medidas necesarias para proteger la seguridad vial”, declaró un portavoz.
Los comentarios de Musk sobre las capacidades del FSD no son sutiles: « La conducción autónoma de Tesla mejora enormemente tu calidad de vida y seguridad durante las miles de horas que pasas en un coche ». La compañía también promociona el sistema con vídeos que muestran un rendimiento aparentemente impecable en viajes por carretera. Sin embargo, Tesla es más cautelosa en lo que informa a la NHTSA. «Tesla describe sus sistemas como automatización parcial de nivel 2 (incluido el «FSD Supervisado»), lo que requiere un conductor totalmente atento que esté involucrado en la conducción en todo momento», declaró la agencia.
El escrutinio de la tecnología de Tesla está aumentando después de los reveses legales , incluyendo el lanzamiento de una demanda colectiva federal por parte de los propietarios de Tesla por las exageradas afirmaciones de Musk sobre FSD y Autopilot y los esfuerzos del DMV de California para prohibir que la compañía use esos nombres para las funciones en ese estado. El jurado en un juicio federal en Florida también determinó el mes pasado que Tesla fue parcialmente responsable de un accidente fatal de 2019 que ocurrió mientras su función Autopilot estaba activada, ordenándole pagar $243 millones en daños. La compañía está apelando el veredicto; resolvió otras dos demandas la semana pasada por accidentes en California relacionados con Autopilot, que tiene funciones de asistencia a la conducción más limitadas que FSD.
La empresa con sede en Austin también está operando un proyecto piloto de robotaxi en su ciudad natal para un número limitado de propietarios de Tesla, quienes pagan una tarifa nominal por su uso. La versión de FSD que utiliza presenta ligeras modificaciones con respecto a la versión ofrecida a los clientes, aunque no las ha explicado en detalle. Desde el lanzamiento del servicio en junio, Tesla ha experimentado varios problemas, incluyendo informes de tres accidentes en un solo día en julio.
A diferencia de Waymo, que opera sus robotaxis en modo totalmente autónomo en varias ciudades de EE. UU., actualmente hay un conductor de seguridad en el asiento delantero para monitorear el desempeño del FSD.
Este es un producto de nivel alfa. Nunca debería estar en manos del cliente. Es solo un prototipo. No es un producto. -Dan O’Dowd, fundador del Proyecto Dawn
Hay 59 muertes por accidentes que involucraron el uso del piloto automático y FSD, según un recuento actualizado de TeslaDeaths.com , compilado a partir de informes de noticias.
Musk y Tesla no respondieron a una solicitud de comentarios sobre los problemas de seguridad del FSD, pero se espera pronto una versión actualizada del software .
Señal peatonal intermitente
Forbes realizó recientemente una evaluación de 90 minutos del FSD más reciente de Tesla, actualizada el 28 de agosto, en un Model Y 2023 con el hardware más reciente de Tesla. El vehículo era propiedad del Proyecto Dawn, una organización creada por el desarrollador de software Dan O’Dowd, quien en los últimos años se ha convertido en un crítico acérrimo del FSD, llegando incluso a gastar su propio dinero en anuncios del Super Bowl para concienciar sobre sus defectos.
En su forma actual, «ni siquiera es un sistema beta. Es un producto de nivel alfa. Nunca debería estar en manos del cliente», declaró O’Dowd a Forbes . «Es solo un prototipo. No es un producto».
El FSD, a veces, puede parecer un sistema de conducción autónoma. Introduce una dirección y arranca sin problemas en modo manos libres. Señaliza al girar, se detiene en las señales de stop y los semáforos, y generalmente observa su entorno gracias a imágenes virtuales que se muestran en la consola central. Sin embargo, la frecuencia de errores que se producen, incluso con poco tráfico y en condiciones meteorológicas óptimas, sobre todo en calles urbanas, exige que la persona al volante esté muy atenta y preparada para tomar el control. Por ello, si eres un conductor consciente, usarlo no es más sencillo ni más relajante que cuando conduce una persona.
Hace dos años, el Proyecto Dawn de O’Dowd realizó una prueba sencilla de FSD con un autobús escolar estacionado. Al acercarse el Tesla, una señal de stop iluminada en el lateral del autobús se desplegó, alertando a los conductores para que se detuvieran y permitieran el paso seguro de los niños. En la prueba original, el Tesla no se detuvo en ningún momento, ni siquiera redujo la velocidad cuando un maniquí infantil se cruzó en su camino delante del autobús. Este mes, Forbes replicó la prueba y el Tesla volvió a fallar; no se detuvo ante la señal de advertencia y atropelló de nuevo a “Timmy”, el maniquí del Proyecto Dawn.
Poco después, repetimos la prueba con un Waymo activado directamente desde la app. El coche se detuvo ante la señal; no se movió hasta que se replegó y no atropelló a Timmy.
Señal de parada del autobús escolar y Timmy
“Informamos sobre el asunto del autobús escolar de Tesla hace más de dos años y no hicieron nada al respecto”, dijo O’Dowd. “Lo publicamos en el New York Times en un anuncio de página completa. Luego hicimos un anuncio para el Super Bowl mostrándolo… Pero [Tesla] no hizo nada al respecto”.
Y no se trata solo de las señales intermitentes de los autobuses escolares. Según algunos propietarios , el FSD tampoco parece detenerse en las vías del tren cuando la barrera de cruce baja y las luces parpadean. Los informes de fallos preocupantes son frecuentes. Un propietario comentó que su Tesla Model 3 con FSD versión 13.2.9 se detuvo repentinamente a mitad de un giro a la izquierda sin protección, mientras un vehículo se dirigía hacia él.
“Este coche venía hacia mí a unos 72 km/h, y yo estaba parado, en medio de su carril”, según una publicación del Tesla Motors Club . “Apreté el acelerador rápidamente para anular el FSD cuando me encontré con la siguiente sorpresa. ¡El coche se movió rápidamente… en reversa!”. Por suerte, eso permitió que el coche esquivara al coche que venía en dirección contraria y no había nadie detrás del propietario, quien quedó desconcertado por la experiencia.
En su evaluación, el revisor e investigador de automóviles Edmunds encuentra mejoras en el software del FSD, pero problemas molestos. “No realiza ajustes menores dentro del carril para evitar objetos en la carretera, como animales atropellados, restos de neumáticos reventados o baches”, dijo Edmunds . “Eso no es bueno, pero es peor porque al FSD tampoco le gusta que tomes el control para hacer esas correcciones. Si giras el volante un poco demasiado para evitar un objeto en la carretera, todo el sistema se apaga abruptamente”.
Edmunds no recomienda que los clientes paguen $8,000 por FSD en su forma actual.
Los problemas del FSD para evitar los escombros de la carretera fueron más que molestos para dos influencers de Tesla que intentaban completar la promesa de Musk de tener un vehículo que condujera de forma autónoma por los EE. UU., hecha por primera vez en 2016. Aproximadamente 60 millas después de partir de San Diego, su nuevo Model Y no pudo evitar un gran objeto metálico en el medio de su carril de la autopista, lo que provocó graves daños en la parte inferior del vehículo, según un video publicado por uno de los influencers, Bearded Tesla Guy .
Ni Consumer Reports ni el Instituto de Seguros para la Seguridad en las Carreteras (IIHS), cuyas evaluaciones tienen una gran influencia en la industria automotriz y los organismos reguladores, han detallado las evaluaciones de FSD. Sin embargo, el IIHS califica las funciones de alerta al conductor de Tesla para FSD como deficientes .
La NHTSA tiene la autoridad para emitir un aviso de suspensión de ventas a los fabricantes de automóviles si detecta problemas de seguridad significativos en modelos o características específicas. En 2016, envió una carta de “pedido especial” a la startup Comma.ai por un producto de posventa que la compañía vendía para automatizar parcialmente la conducción en ciertos modelos de automóviles. Esto llevó a Comma a suspender sus planes de venta del dispositivo en ese momento.
Según O’Dowd, la NHTSA debería hacer algo similar con el FSD, aunque no está claro si lo hará. Por ahora, el Proyecto Dawn proporciona evaluaciones de conducción como la realizada para Forbes a funcionarios públicos, como el fiscal general de California, Rob Bonta, y la representante estadounidense Salud Carbajal, para demostrar las deficiencias de la función. Green Hills Software, su empresa, es proveedor de software desde hace mucho tiempo para el Departamento de Defensa y fabricantes de aeronaves, y financia el Proyecto Dawn. Se negó a detallar su presupuesto actual, pero afirmó que es “sustancial”.
Una farmacéutica no llamaría a algo una cura universal y completa contra el cáncer si en realidad no lo cura. Nadie lo haría. Te demandarían hasta la muerte. Te meterían en la cárcel y te lo quitarían todo —dijo O’Dowd—. Pero [Musk] lo hace a diario porque nadie en el gobierno va a tomar medidas. Ningún regulador va a tomar medidas en este momento. Para eso estamos aquí, en cierto modo.
Mark Rosekind, ex director de seguridad del desarrollador de robotaxi Zoox y administrador de la NHTSA en 2016 cuando ocurrió el primer accidente fatal del Autopilot de Tesla, cree que se necesita una combinación de nuevas regulaciones para tecnología como FSD y validación por parte de entidades externas expertas.
“Si realmente se busca seguridad, transparencia y confianza en las oportunidades de los vehículos autónomos, será necesario fortalecer y mejorar las estructuras federales con enfoques realmente innovadores”, declaró a Forbes . Esto debería incluir “programas complementarios, independientes y neutrales de terceros… ciertos requisitos que deben cumplir para demostrar la seguridad. Transparencia que genere confianza”.
Por ahora, la investigadora de vehículos autónomos Cummings ve un factor que podría minimizar las deficiencias de la tecnología de Tesla. «Lo realmente bueno de lo malo que es el FSD es que la mayoría de la gente entiende que es terrible y lo observa con mucha atención», afirmó.
Este artículo fue publicado originalmente en Forbes US
Lea también: Tesla de Musk prevé caída de ganancias tras histórico descenso en ventas
