Tesla bajo lupa: ¿Avance tecnológico o riesgo público?

Una nueva investigación sobre el sistema de conducción autónoma total de Tesla enciende alarmas de seguridad vial tras múltiples incidentes

El problema de la conducción autónoma 'Full Self-Driving'

En el mundo del automovilismo, pocas marcas han generado tanto entusiasmo y controversia como Tesla. La firma dirigida por Elon Musk lleva más de una década prometiendo una revolución tecnológica basada en la conducción autónoma. Sin embargo, esa visión futurista enfrenta serios obstáculos. La Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA, por sus siglas en inglés) ha abierto una nueva investigación sobre el sistema Full-Self Driving (FSD) de Tesla, que ya ha estado implicado en decenas de incidentes de tráfico.

Según un documento emitido por la NHTSA, la investigación abarca 2.8 millones de vehículos Tesla que operan con tecnología FSD. Se han registrado al menos 58 incidentes en los que vehículos Tesla cruzaron semáforos en rojo, circularon en sentido contrario o incluso colisionaron con otros vehículos, en algunos casos ocasionando lesiones graves. Muchos conductores afirmaron que sus vehículos actuaron sin previo aviso, dejando a los ocupantes sin margen de reacción.

Autonomía Prometida vs. Seguridad Real

Desde hace años, Elon Musk ha prometido que la conducción autónoma completa estaría a la vuelta de la esquina. Afirmaciones como que Tesla tendría “robotaxis en las calles para finales del próximo año” o que los conductores podrían “dormir mientras su coche los lleva al trabajo” han llenado titulares. Sin embargo, la distancia entre el marketing y la realidad técnica parece igual de grande que siempre.

La tecnología FSD de Tesla está categorizada actualmente como un sistema de nivel 2 de asistencia al conductor, lo que significa que requiere supervisión humana constante. En otras palabras, no es una conducción verdaderamente autónoma.

“Tesla ha dejado claro que su sistema necesita atención del conductor en todo momento, pero esos mensajes se contradicen frecuentemente con las expectativas generadas por su propia publicidad,” afirma Jason Levine, director del Center for Auto Safety.

Un historial accidentado

No es la primera vez que Tesla enfrenta controversias por sus sistemas de conducción asistida. En agosto de 2023, un jurado en Miami responsabilizó parcialmente a Tesla por la muerte de un hombre en 2019 durante un accidente relacionado con su sistema Autopilot. La compañía fue condenada a pagar más de 240 millones de dólares en daños. Aunque Tesla anunció que apelará la decisión, el fallo marcó un precedente muy importante en el escrutinio legal y público sobre estas tecnologías.

La NHTSA también ha iniciado otras investigaciones previas, incluyendo una sobre la función de aparcamiento automático “Summon” que ha causado choques menores en estacionamientos, y otra sobre por qué Tesla no ha reportado adecuadamente ciertos accidentes a la agencia, como exige la ley.

La presión sobre Elon Musk

Elon Musk está bajo presión no solo por parte de las entidades reguladoras, sino también de sus inversionistas. Las acciones de Tesla cayeron un 2% después del anuncio de la investigación, sumándose a un año complicado para la empresa en un mercado de vehículos eléctricos cada vez más competitivo.

Los rivales como Ford y General Motors están reforzando su presencia en el mercado de vehículos eléctricos, y fabricantes emergentes como Rivian y Lucid están ganando terreno. Sin embargo, Tesla sigue siendo el líder del mercado en EE.UU., con una participación de mercado de alrededor del 60% en el segmento de vehículos eléctricos, según datos de InsideEVs.

Pero ese liderazgo está en riesgo si no se aborda el tema de la seguridad. El desgaste de reputación podría ser tan costoso como cualquier multa o sentencia judicial.

¿Es FSD una tecnología confiable?

El sistema FSD es un paquete de software premium que Tesla vende por más de $12,000 USD en EE.UU., y cuya principal promesa es facilitar una experiencia de conducción autónoma. En realidad, el sistema combina diferentes funciones como el control crucero adaptativo, asistencia para cambio de carril en autopistas, y navegación automática.

No obstante, los múltiples informes de fallos han llevado a expertos a cuestionar si Tesla debería comercializar esta tecnología con un nombre tan agresivo como “Full Self-Driving” cuando en realidad sigue exigiendo la supervisión del conductor.

  • En 2022, Consumer Reports calificó el sistema de Tesla como uno de los menos confiables entre ocho sistemas de conducción asistida.
  • La California DMV ya demandó a Tesla por publicidad engañosa.

Más allá de las consideraciones legales, el debate es si esta tecnología realmente representa un avance para la movilidad o si está siendo usada como experimento en carretera con millones de usuarios como sujetos de prueba.

Musk y la cultura de "beta"

Una de las características más polémicas del enfoque de Musk ha sido su cultura de actualizaciones constantes en modo beta>. En teoría, esto permite a Tesla mejorar el sistema en tiempo real según la retroalimentación de los conductores. En la práctica, eso ha significado que millones de personas conduzcan con un software que puede cambiar su comportamiento de una semana a otra sin pruebas rigurosas al nivel exigido por las autoridades reguladoras tradicionales.

Es como dejar que aviones con software experimental transporten pasajeros mientras los ingenieros lo corrigen en el aire,” señaló Philip Koopman, experto en seguridad de tecnología autónoma de la Universidad Carnegie Mellon.

Koopman ha sido una de las voces más críticas del modo en que Tesla despliega sus tecnologías sin cumplir filtros técnicos ni éticos básicos reconocidos en la industria aeronáutica, médica o incluso automotriz tradicional.

Lo que podría venir: multas, regulaciones y... ¿recall?

Las investigaciones de la NHTSA no son una simple formalidad. En varias ocasiones, estos procesos han desembocado en llamadas masivas a revisión (recalls) que Tesla ha sorteado parcialmente gracias a su modelo de actualizaciones por software, conocido como OTA (Over the Air).

Sin embargo, si la investigación determina que el sistema FSD infringe las normas de seguridad vial de forma sistémica, Musk podría enfrentar una orden de retirada mucho más severa y comprometedora para la reputación y las finanzas de la empresa.

En EE.UU., cualquier sistema que intervenga la conducción debe pasar los filtros del Federal Motor Vehicle Safety Standards (FMVSS), y Tesla aún no ha presentado evidencias concluyentes de que su FSD los cumple sin reservas.

¿Y ahora qué?

El panorama para Tesla en el terreno de la conducción autónoma está lejos de ser claro. Elon Musk tendrá que equilibrar su ambición tecnológica con la realidad regulatoria y de mercado. Los consumidores, por su parte, deben mantenerse alertas: un volante siempre debe estar a mano, por muy inteligente que sea el coche.

La discusión sobre Tesla y su FSD no solo se trata de tecnología punta, sino del dilema de cómo la innovación debe equilibrarse con la seguridad pública, la transparencia y el consentimiento informado de los usuarios.

En momentos en que la inteligencia artificial y la automatización prometen transformar cada aspecto de nuestras vidas, Tesla nos recuerda que el futuro no puede llegar más rápido de lo que la seguridad lo permite.

Este artículo fue redactado con información de Associated Press