Tesla Autopilot es un sistema avanzado de asistencia al conductor (ADAS) desarrollado por Tesla que equivale a una automatización parcial del vehículo ( automatización de nivel 2 , según la definición de SAE International ). Tesla proporciona "Base Autopilot" en todos los vehículos, que incluye centrado de carril y control de crucero consciente del tráfico . Los propietarios pueden comprar o suscribirse a Full Self-Driving ( FSD ) que agrega navegación semiautónoma que responde a semáforos y señales de stop, asistencia para cambiar de carril , estacionamiento automático y la capacidad de llamar al automóvil desde un garaje o lugar de estacionamiento.
La intención declarada de la empresa es ofrecer conducción totalmente autónoma (SAE Nivel 5 ) en el futuro, reconociendo que se deben superar obstáculos técnicos y regulatorios para lograr este objetivo. [1] Los nombres Autopilot y Full Self-Driving son controvertidos, porque los vehículos permanecen en la automatización de Nivel 2 y, por lo tanto, no son "totalmente autónomos " y requieren la supervisión activa del conductor.
La empresa afirma que las funciones reducen los accidentes causados por la negligencia del conductor y la fatiga de la conducción a largo plazo. [2] [3] Las colisiones y muertes que involucraron automóviles Tesla con el piloto automático activado han llamado la atención de la prensa y las agencias gubernamentales. [4] Los observadores de la industria y los académicos han criticado la decisión de Tesla de utilizar consumidores no capacitados para validar las funciones beta como peligrosas e irresponsables. [5] [6] [7] [8]
Desde 2013, el director ejecutivo de Tesla, Elon Musk, ha hecho repetidamente predicciones inexactas sobre que Tesla alcanzaría la autonomía de Nivel 5 en un plazo de uno a tres años [9] , y la más reciente fue predecir el final de 2023. [10]
Elon Musk habló por primera vez del sistema Tesla Autopilot públicamente en 2013, señalando que "Autopilot es algo bueno para tener en los aviones, y deberíamos tenerlo en los automóviles". [11] Durante la década siguiente, Autopilot pasó por una serie de mejoras de hardware y software, acercándose gradualmente al objetivo de autonomía total, que, a enero de 2024 [actualizar], sigue sin cumplirse. Autopilot, como se presentó inicialmente en 2014, se refería al estacionamiento automático y la convocatoria de baja velocidad en propiedad privada, [12] utilizando hardware de sensores y computación desarrollado por Mobileye. Para 2016, el Autopilot basado en Mobileye había agregado frenado automático de emergencia (AEB) , control de crucero adaptativo (ACC) y capacidades de centrado de carril [13] cuando Tesla y Mobileye disolvieron su asociación en julio. [14] El piloto automático mejorado (EAP) se anunció más tarde en 2016 como una opción de costo adicional que usaba un nuevo conjunto de hardware desarrollado por Tesla; [15] La característica distintiva clave para EAP, "Navegar en piloto automático", que utiliza el nuevo conjunto de hardware para guiar al vehículo en carreteras de acceso controlado , desde la rampa de entrada hasta la rampa de salida, se retrasó hasta 2018. [16] Al mismo tiempo que se introdujo EAP, Tesla también ofreció Full Self-Driving (FSD) como una opción de actualización a EAP en 2016, que ampliaría las capacidades de conducción guiada por máquina a las carreteras locales. [15] Las pruebas beta de FSD comenzaron en octubre de 2020. [17]
En el momento en que se lanzó el video "Paint it Black" en 2016, se reconoció que FSD estaba "muy lejos en el futuro". [18] La opción para comprar la actualización de FSD a EAP se eliminó del sitio web de Tesla en octubre de 2018; Elon Musk tuiteó que la actualización estaba "causando demasiada confusión". El analista de tecnología Rob Enderle calificó la eliminación de la opción de actualización como "increíblemente estúpida", y agregó "no lancen un sistema que no funciona y dificulte el pedido". [19] Durante una llamada de ganancias de enero de 2019, Elon Musk reiteró que "la capacidad de conducción autónoma completa está ahí", refiriéndose a "Navigate on Autopilot", una función de EAP limitada a las autopistas de acceso controlado. [20] La opción EAP fue reemplazada por FSD en 2019 sin ofrecer una funcionalidad similar a "Navigate on Autopilot" para carreteras locales; la dirección automática y el control de crucero consciente del tráfico se transfirieron al conjunto básico de funciones de piloto automático, que se convirtió en estándar en todos los nuevos Teslas. [21] [22]
En septiembre de 2020, Tesla reintrodujo el término Piloto automático mejorado para distinguir el subconjunto existente de funciones que incluían viajes en autopista a alta velocidad y estacionamiento y convocatoria a baja velocidad, del FSD, que agregaría viajes en carreteras urbanas a velocidad media. [23] Tesla lanzó una versión " beta " de su software FSD (que extendió la conducción y navegación controladas por máquina similar a "Navegar en piloto automático" a "carreteras locales") en los Estados Unidos en octubre de 2020 para los probadores de EAP. [24] [25] El nivel de opción EAP se puso a disposición de todos los compradores en junio de 2022 [21] y la versión beta de FSD se había expandido a 160.000 probadores en los Estados Unidos y Canadá en septiembre. [26] En noviembre de 2022, la versión beta de FSD se extendió a todos los propietarios en América del Norte que habían comprado la opción. [27] En abril de 2024, EAP se eliminó de las páginas de diseño de América del Norte. Sin embargo, todavía está disponible para su compra en otros mercados.
En octubre de 2014, Tesla ofreció a los clientes la posibilidad de comprar por adelantado el Autopilot [12] [28] [29] que no estaba diseñado para la conducción autónoma . [30] Las versiones iniciales se construyeron en asociación con Mobileye , [31] pero Mobileye finalizó la asociación en julio de 2016 porque Tesla "estaba superando los límites en términos de seguridad". [32] [33]
Los vehículos fabricados después de septiembre de 2014 incluían el Hardware 1 (HW1), que admitía el piloto automático. [34] La primera versión del software del piloto automático se lanzó en octubre de 2015 como parte de la versión 7.0 del software de Tesla. [35] La versión 7.1 eliminó algunas funciones para desalentar la conducción arriesgada. [36]
La versión 8.0 procesó señales de radar para crear una nube de puntos similar al lidar para ayudar a navegar en condiciones de baja visibilidad. [37] [38] En noviembre de 2016, se actualizó Autopilot 8.0 para alentar a los conductores a agarrar el volante. [39] [40] Para noviembre de 2016, Autopilot había operado durante 300 millones de millas (500 millones de kilómetros). [41]
En octubre de 2016, los sensores y el hardware informático del piloto automático pasaron al hardware 2 (HW2) para los automóviles nuevos, [42] el hardware actualizado se denominó colectivamente Autopilot 2.0 para distinguirlo de los vehículos Autopilot/HW1 originales. [43] En el momento de su lanzamiento, los vehículos Autopilot 2.0 con HW2 en realidad tenían menos funciones que los vehículos HW1; por ejemplo, los vehículos HW2 no pudieron ser convocados en 2016. [44] [45]
Tesla también usó el término Piloto Automático Mejorado (EAP) para referirse a las capacidades planificadas que llegarían a los vehículos HW2: la característica distintiva del EAP anunciada en diciembre de 2016 fue "Navegar en Piloto Automático", que permite la conducción controlada por máquina en autopistas de acceso controlado desde la rampa de entrada a la rampa de salida, incluidas las capacidades de cambiar de carril sin la intervención del conductor, la transición de una autopista a otra y la salida. [18] Los vehículos HW2 se actualizaron en enero y febrero de 2017 con la versión de software 8.0, que incluía Control de Crucero Consciente del Tráfico y Autosteer (centrado de carril) en autopistas divididas y "caminos locales" hasta velocidades de 45 millas por hora (72 km/h). [46] [47] La versión 8.0 también puso más énfasis en el sistema de radar, en un intento de tratar de evitar problemas como el accidente fatal del Piloto Automático de 2016 en Florida. [48] La versión 8.1 del software para HW2 llegó en marzo de 2017, brindando a los autos HW2 características equivalentes a las de los autos HW1, pero no incluía "Navegar en piloto automático". [49]
En agosto de 2017, Tesla anunció el Hardware 2.5 (HW2.5), que mejoró el procesador de a bordo y agregó sistemas redundantes. [51] La versión de software 9.0 se lanzó en octubre de 2018 [52] en preparación para el lanzamiento de "Navigate on Autopilot" para vehículos HW2/HW2.5 con EAP, que se implementó más tarde ese mes. [53] Simultáneamente, Tesla eliminó la opción de comprar la actualización "Full Self-Driving". [20] En una prueba de manejo de noviembre de 2018, el reportero de The Verge Andrew J. Hawkins llamó a la versión beta de Navigate on Autopilot "la característica que podría darle a Tesla una ventaja a medida que crece de una empresa de nicho a una potencia global". [54] Tal como se lanzó inicialmente, Navigate on Autopilot sugeriría cambios de carril, pero no podría cambiar de carril hasta que el conductor hubiera confirmado la sugerencia a través de la palanca de la señal de giro. [55]
En marzo de 2019, Tesla realizó la transición al Hardware 3 (HW3) para los autos nuevos. [56] Los cambios de carril completamente automatizados sin requerir la confirmación del conductor usando "Navegar en piloto automático" se agregaron como una opción en una actualización de software de abril, [57] aunque Consumer Reports lo calificó como "mucho menos competente" que un conductor humano. [58] Para cumplir con la nueva regulación de la Comisión Económica de las Naciones Unidas para Europa relacionada con la función de dirección comandada automáticamente , [59] Tesla proporcionó un piloto automático actualizado en mayo, limitado a Europa. [60] En septiembre, Tesla lanzó la versión 10 del software a los probadores del Programa de acceso anticipado (EAP), citando mejoras en la visualización de la conducción y los cambios automáticos de carril. [61]
En 2021, Tesla comenzó a dejar de usar radares para pasar a usar solo Tesla Vision. [62] En octubre de 2022, presentó su razonamiento, citando la "seguridad". [63] Los vehículos fabricados después de 2022 no incluyen radar ni sensores ultrasónicos.
Samsung fabrica el procesador para el hardware 4 (HW4) en un proceso de 7 nm. El sistema en un chip (SoC) personalizado se llama "FSD Computer 2". [64] La placa tiene 16 GB de RAM y 256 GB de almacenamiento, que son dos y cuatro veces la RAM y el almacenamiento del HW3 respectivamente. [65] Musk afirmó que las capacidades computacionales del HW4 son de tres a ocho veces más potentes que las del HW3. [66]
Tesla comenzó a enviar automóviles con HW4 en enero de 2023, comenzando con los renovados Model S y Model Y; [66] sin embargo, FSD no estaba disponible inicialmente. [67] Pasaron seis meses antes de que los automóviles basados en HW4 ejecutaran software basado en cámara. [66] [68] A pesar de la mayor resolución del sensor de imagen con los automóviles equipados con HW4, HW4 ejecuta el software FSD emulando HW3, incluida la reducción del tamaño de las imágenes de la cámara, ya que Tesla ha pospuesto la capacitación basada en las nuevas cámaras HW4. [69] [66] Musk declaró que la capacitación específica de HW4 de FSD comenzará después de que se termine el nuevo centro de datos en la Gigafábrica de Texas. [66]
Un desmontaje de un automóvil Model S y Model X HW4 en 2023 reveló que tenían hardware de radar de alta definición, pero el software no usaba radar. [70]
Musk anunció el Hardware 5 (HW5), que se llamará AI5, durante la reunión anual de Tesla el 13 de junio de 2024. [66] [71] Musk afirmó que su lanzamiento está previsto para enero de 2026 y será diez veces más potente que el HW4. [66] Musk también afirmó que utilizará hasta 800 vatios al procesar entornos complejos, frente a un máximo de 300 vatios para HW3 y HW4. [66]
El piloto automático es el paquete más básico que viene incluido en los modelos S, 3, X e Y. El piloto automático incluye control de crucero adaptativo (denominado Traffic-Aware Cruise Control o TACC) y centrado de carril (Autosteer). El paquete también incluye funciones menores como "Green Light Chime" y sistemas de seguridad estándar como frenado automático de emergencia (AEB), advertencia y corrección de salida de carril y borde de la calzada e indicadores de punto ciego.
Si bien el Cybertruck incluye Autopilot, a partir de octubre de 2024 no incluye Autosteer.
Enhanced Autopilot es un paquete intermedio que ofrece las funciones de invocación, cambio automático de carril, navegación en piloto automático y estacionamiento automático. Los vehículos que admiten EAP son los modelos S, 3, X e Y. Los clientes norteamericanos actualmente no pueden comprar este paquete, aunque sigue activo en los vehículos para los que se compró en el pasado.
La invocación se divide en tres categorías: invocación tonta, invocación inteligente y invocación inteligente real. Se puede activar a través de la aplicación móvil de Tesla o del llavero. La invocación tonta se utiliza para mover el vehículo hacia adelante o hacia atrás. La invocación inteligente (obsoleta) conduce el automóvil hacia el usuario o hacia una ubicación designada, confiando en los sensores ultrasónicos del vehículo (USS) para navegar y evitar colisiones. La invocación inteligente real (ASS) realiza el mismo trabajo que su predecesor, sin embargo, utiliza las cámaras del vehículo en lugar de USS. La invocación inteligente real solo se puede utilizar a través de la aplicación y presenta un radio de invocación más grande en comparación con la invocación inteligente.
Autopark es capaz de estacionar el vehículo para el conductor. Los usuarios tienen la opción de usar Autopark cuando el vehículo detecta un espacio de estacionamiento vacío. Mediante el sistema USS, Autopark maniobra los vehículos para colocarlos en el lugar de estacionamiento. En 2024, Tesla lanzó un Autopark rediseñado, que usaba las cámaras del vehículo e introdujo un sistema de "tocar para estacionar". A los usuarios se les muestran todos los lugares de estacionamiento posibles y pueden elegir un lugar específico para que Autopark estacione. Actualmente, Autopark solo puede retroceder para ingresar a los espacios.
La conducción autónoma total es el nivel más alto de los tres paquetes, con reconocimiento de semáforos y señales de stop y dirección automática en calles de la ciudad. [72] Las visualizaciones que se muestran en la pantalla del vehículo son más detalladas y el vehículo puede navegar por carreteras locales, de forma similar a Navigate on Autopilot. FSD está disponible para todos los modelos actuales de Tesla, incluido el Cybertruck.
FSD también incluye características menores como la monitorización de la atención basada en la visión.
En 2015, el piloto automático costaba 2.500 dólares en un Model S. En 2016, el piloto automático mejorado costaba 5.000 dólares y el FSD era un complemento por 3.000 dólares. [73] En abril de 2019, el piloto automático básico se incluyó en todos los coches Tesla, [74] y el FSD costaba 5.000 dólares, aumentando a 10.000 dólares en octubre de 2020 y a 15.000 dólares en septiembre de 2022. [75] A medida que aumentaba el precio del FSD, la fracción de compradores que lo adquirieron disminuyó de forma constante, de un 37% estimado en 2019 al 22% en 2020 y al 12% en 2021. [76] A partir de 2021, la empresa ofreció una suscripción al FSD por 199 dólares al mes o 99 dólares al mes si el cliente ya había comprado el piloto automático mejorado. [77] En septiembre de 2023, el precio de FSD se redujo a $12,000. [78] En abril de 2024 con la eliminación de EAP, Tesla redujo el precio de suscripción de FSD a $99 por mes para nuevos usuarios o usuarios que ya habían comprado Enhanced Autopilot, [79] y redujo el precio de compra de FSD a $8,000. [80] La reducción del precio del servicio por parte de Tesla fue contraria a las declaraciones anteriores de Musk sobre cómo el precio de FSD seguiría aumentando, [81] y enfureció a los usuarios existentes de FSD que pagaban los precios más altos anteriormente. [82]
El enfoque de Tesla para intentar alcanzar el nivel 5 de SAE es entrenar una red neuronal utilizando el comportamiento de más de 6 millones de conductores de Tesla [83] [84] utilizando principalmente cámaras de luz visible y los mapas bidimensionales de grano grueso utilizados para la navegación. [85] [86] Tesla ha tomado la decisión deliberada de no utilizar lidar, al que Elon Musk ha llamado "estúpido, caro e innecesario". [87] Esto hace que el enfoque de Tesla sea marcadamente diferente al de otras empresas como Waymo y Cruise , que entrenan sus redes neuronales utilizando el comportamiento de un pequeño número de conductores altamente capacitados, [88] [89] y, además, confían en mapas tridimensionales altamente detallados (a escala de centímetros) y lidar en sus vehículos autónomos. [86] [90] [91] [92] [93]
Según Elon Musk, la autonomía total es "en realidad una limitación del software: el hardware existe para crear una autonomía total, por lo que se trata realmente de desarrollar una IA avanzada y limitada para que el automóvil pueda operar". [94] [95] El desarrollo del piloto automático se centra en "redes neuronales cada vez más sofisticadas que puedan operar en computadoras de tamaño razonable en el automóvil". [94] [95] Según Musk, "el automóvil aprenderá con el tiempo", incluso de otros automóviles. [96]
El software de Tesla ha sido entrenado en base a tres mil millones de millas recorridas por vehículos Tesla en vías públicas, a partir de abril de 2020. [actualizar][ 97] [98] Junto con decenas de millones de millas en vías públicas, [99] los competidores han entrenado su software en decenas de miles de millones de millas en simulaciones por computadora, a partir de enero de 2020. [actualizar][ 100] En términos de hardware informático, Tesla diseñó un chip de computadora de conducción autónoma que ha sido instalado en sus autos desde marzo de 2019 [101] y también diseñó y construyó internamente una supercomputadora de entrenamiento de redes neuronales ("Tesla Dojo"); [102] [103] otras compañías de automatización de vehículos como Waymo también usan regularmente conjuntos de chips y redes neuronales personalizados. [104] [105]
No creo que tengamos que preocuparnos por los coches autónomos porque son una forma limitada de inteligencia artificial. No creo que sea algo muy difícil. Hacer que la conducción autónoma sea mucho más segura que la de una persona es mucho más fácil de lo que la gente cree. [...] Casi lo veo como un problema resuelto.
— Elon Musk, discurso inaugural, conferencia de Nvidia (marzo de 2015) [106]
En diciembre de 2015, Musk predijo que la "autonomía completa" se implementaría para 2018. [107] A fines de 2016, Tesla esperaba demostrar la autonomía completa para fines de 2017, [108] [109] y en abril de 2017, Musk predijo que en alrededor de dos años, los conductores podrían dormir en su vehículo mientras este se conduce solo. [110] En 2018, Tesla revisó la fecha para demostrar la autonomía completa para fines de 2019. [111]
Creo que este año tendremos todas las funciones y conducción autónoma, lo que significa que el coche podrá encontrarte en un aparcamiento, recogerte y llevarte hasta tu destino sin intervención. Este año. Diría que estoy seguro de ello, no es una incógnita. Sin embargo, a veces la gente extrapola eso para decir que ahora funciona con un 100 % de certeza, sin necesidad de observación, perfectamente, pero no es así.
— Elon Musk, Podcast (febrero de 2019) [112] [113]
En 2019 [114] [115] y 2020 [116] , la página de pedidos de Tesla para "Capacidad total de conducción autónoma" decía:
En enero de 2020, Musk afirmó que el software FSD estaría "completo en funciones" para fines de 2020, y agregó que el hecho de que las funciones estén completas "no significa que las funciones estén funcionando bien". [117] En agosto de 2020, Musk declaró que 200 ingenieros de software, 100 ingenieros de hardware y 500 " etiquetadores " estaban trabajando en Autopilot y FSD. [118] A principios de 2021, Musk declaró que Tesla proporcionaría autonomía SAE Nivel 5 para fines de 2021. [119] [120] En una conferencia telefónica de marzo de 2021 entre Tesla y el Departamento de Vehículos Motorizados de California (DMV), el director del software Autopilot de Tesla reveló que los comentarios de Musk "no reflejaban la realidad de la ingeniería". Los detalles de la llamada se hicieron públicos a través de una solicitud de la Ley de Libertad de Información de PlainSite . [121] En una videollamada en una conferencia sobre inteligencia artificial celebrada en Shanghái en 2023, Musk admitió que sus predicciones anteriores eran demasiado optimistas y predijo que Tesla finalmente crearía vehículos totalmente autónomos en algún momento "a finales de este año". [122]
Durante la reunión de inversores del primer trimestre de 2024, a principios de 2024, Musk anunció que revelaría un nuevo producto robotaxi en agosto. Esto se retrasó posteriormente hasta octubre. A fecha de abril de 2024, Tesla aún no ha solicitado los permisos a nivel estatal necesarios para operar vehículos autónomos en los EE. UU. [123]
En octubre de 2020, Tesla lanzó por primera vez una versión beta de su software FSD para los probadores del programa de acceso temprano, un pequeño grupo de usuarios en los Estados Unidos. [124] [24] [25] Musk declaró que las pruebas de la versión beta de FSD "serán extremadamente lentas [y] cautelosas" y "se limitarán a un pequeño número de personas que sean conductores expertos [y] cuidadosos". [24] El lanzamiento del programa beta renovó la preocupación sobre si la tecnología está lista para ser probada en la vía pública. [125] [126] En enero de 2021, el número de empleados y clientes que probaron el software beta de FSD era "casi 1.000" [127] ampliándose en mayo de 2021 a varios miles de empleados y clientes. [128]
En octubre de 2021, Tesla comenzó el lanzamiento amplio de la versión beta de FSD a aproximadamente 1000 conductores más en los EE. UU., y la versión beta se volvió accesible para los conductores de Tesla que lograron un 100/100 en un sistema de puntuación de seguridad patentado. [129] Para noviembre de 2021, había alrededor de 11 700 probadores beta de FSD [130] y alrededor de 150 000 vehículos que usaban el sistema de puntuación de seguridad de Tesla, [131] que luego creció a 60 000 usuarios que participaban en la versión beta de FSD en enero de 2022, [132] y 100 000 usuarios en abril de 2022. [128] En noviembre de 2022, la versión beta de FSD se abrió a todos los propietarios de América del Norte que habían comprado la opción, independientemente de la puntuación de seguridad. [27] A febrero de 2023 [actualizar], Tesla tiene alrededor de 360 000 participantes en la versión beta de FSD. [133]
En febrero de 2023, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) de EE. UU. retiró del mercado 362 758 vehículos equipados con la versión beta de FSD [134] y la empresa detuvo la incorporación de nuevos participantes [135] . En marzo de 2023, se lanzó la versión beta de FSD v11, que también fusionó el código del piloto automático con FSD, como solución a los problemas [136] . En julio de 2023, la NHTSA le pidió a Tesla que aclarara qué cambios se habían realizado y cuándo se implementaron [137] . Posteriormente, la NHTSA informó de 60 accidentes y una muerte relacionados con el uso de la versión beta de FSD durante el período comprendido entre agosto de 2022 y agosto de 2023 [138].
En agosto de 2023, Musk transmitió en vivo una demostración de 45 minutos de la próxima versión 12 de FSD, que afirmó que usaba aprendizaje automático y no código escrito por humanos . [139] Hubo una intervención: el vehículo malinterpretó una flecha verde de giro a la izquierda como si permitiera el tráfico hacia adelante y casi se saltó la luz roja antes de que Musk interviniera. [139] Las notas de la versión 12.1 (una versión de prueba interna) y las versiones posteriores promocionan la eliminación de más de 300.000 líneas de código C++ explícito. [140]
En abril de 2024, la versión 12.3.3 de FSD reemplazó oficialmente la palabra "beta" por "supervisada" en su nombre [141] y Tesla anunció que los usuarios habían conducido más de mil millones de millas en FSD Beta. [81] La versión 12.3.3 introdujo el Autopark basado en visión para vehículos que no sean USS.
En marzo de 2024, la versión 12.3.6 de FSD comenzó a implementarse para un grupo inicial de clientes estadounidenses y recibió comentarios positivos. [142] [143] Posteriormente, Tesla anunció una prueba gratuita de un mes de FSD [144] y Musk ordenó demostrar FSD a todos los posibles compradores en los EE. UU. [144]
En mayo de 2024, los analistas de datos publicados por YipitData descubrieron que, de los casi 3.500 propietarios de Tesla que probaron FSD en abril de 2024, solo el 2% mantuvo sus suscripciones. [145]
El lanzamiento generalizado de la versión 12.4.3 introdujo el sistema de monitoreo basado en visión, eliminando la necesidad de monitoreo de atención basado en toque. [146]
A principios de septiembre de 2024, el lanzamiento generalizado de la versión 12.5.3 de FSD introdujo la invocación inteligente real y el soporte de gafas de sol para el sistema de monitoreo basado en la visión. [147] Poco después, Tesla realizó algunos cambios en su paquete FSD, cambiando el nombre de "Capacidad total de conducción autónoma" a "Conducción autónoma total (supervisada)" junto con la descripción. [148] A fines de septiembre, Tesla lanzó la versión 12.5.5 de FSD para Cybertruck, siendo la característica definitoria del lanzamiento la fusión de las pilas de ciudad y carretera.
El lanzamiento de la versión 12.5.3 se desvió de las versiones de software anteriores. Anteriormente, las actualizaciones se implementaban primero en los vehículos equipados con Hardware 3. Actualmente, las actualizaciones se implementan primero en los vehículos equipados con Hardware 4, mientras que los vehículos equipados con Hardware 3 esperan más optimizaciones de software.
Fuera de Norteamérica, las capacidades del piloto automático difieren. Si bien se ofrecen a los clientes el piloto automático mejorado y la conducción autónoma completa, su conjunto de funciones es más limitado. La mayoría de las regiones ofrecen Summon, Smart Summon y Autopark con EAP y FSD. El equipo de IA de Tesla publicó una hoja de ruta que señala un lanzamiento de FSD en el primer trimestre de 2025 para China y Europa. [149]
En Australia, están disponibles el piloto automático, el EAP y el FSD. [150] El FSD incluye las funciones de piloto automático mejorado y el control de semáforos y señales de stop. El sistema de dirección automática en calles de la ciudad está actualmente en fase de lanzamiento. [151] [152]
En China, están disponibles el piloto automático, el EAP y el FSD. [153] A partir de octubre de 2024, el FSD no ofrece actualmente nada más que el piloto automático mejorado. Las funciones de invocación, invocación inteligente, control de semáforos y señales de stop y dirección automática en calles de la ciudad figuran actualmente como próximas. Para los datos de mapas, se utiliza Baidu Maps y actualmente se requiere que los datos recopilados dentro de China permanezcan en el país. [154] [155]
En 2024, Tesla comenzó a probar el FSD en China luego de la aprobación preliminar. [156] [157]
En Europa y el Reino Unido, están disponibles el piloto automático, el EAP y el FSD. [158] El FSD incluye las funciones del piloto automático mejorado y el control de semáforos y señales de stop. Algunas funciones, como el cambio automático de carril, requieren la confirmación del conductor.
Desde finales de 2022, el FSD se encuentra en pruebas internas. [159] En abril de 2024, un funcionario de la Administración de Transporte de Suecia recibió una demostración del FSD en Alemania. [160]
Tesla Dojo es una supercomputadora diseñada desde cero por Tesla para el procesamiento y reconocimiento de video mediante visión artificial . Se utilizará para entrenar los modelos de aprendizaje automático de Tesla para mejorar la FSD.
Dojo fue mencionado por primera vez por Musk en abril de 2019 [161] [162] y agosto de 2020. [162] Musk lo anunció oficialmente en el Día de la IA de Tesla el 19 de agosto de 2021. [163] En septiembre de 2021, se publicó un informe técnico de Tesla Dojo. En agosto de 2023, Tesla dijo que comenzó el uso de producción de Dojo, configurado con 10,000 chips Nvidia. [164]
Dojo consta de varios gabinetes. Cada gabinete contiene múltiples mosaicos de entrenamiento dispuestos verticalmente. [165] Cada mosaico contiene múltiples chips de procesamiento D1 diseñados por Tesla con memoria asociada. [166] Según el director senior de hardware de piloto automático de Tesla, Ganesh Venkataramanan, "Tesla coloca 25 de estos chips en un solo 'mosaico de entrenamiento', y 120 de estos mosaicos se juntan... sumando más de un exaflop [un millón de teraflops] de potencia". [167] (A partir de agosto de 2021 [actualizar], Nvidia declaró que el centro de entrenamiento de IA de Tesla anterior a Dojo usaba 720 nodos de ocho unidades de procesamiento gráfico (GPU) Nvidia A100 Tensor Core , 5760 GPU en total, para hasta 1,8 exaflops de rendimiento. [168] ) En abril de 2024, Musk dijo que Tesla estaba usando 35.000 chips Nvidia H100 y estaba en camino de haber invertido $10 mil millones de forma acumulativa para fin de año para entrenar el modelo de red neuronal para FSD. [169]
El piloto automático de Tesla está clasificado como Nivel 2 bajo los seis niveles SAE (0 a 5) de automatización del vehículo . [170] En este nivel, el automóvil puede actuar de forma autónoma, pero requiere que el conductor controle la conducción en todo momento y esté preparado para tomar el control en cualquier momento. [171] [172] El manual del propietario de Tesla establece que el piloto automático no debe usarse en calles de la ciudad o en carreteras donde las condiciones del tráfico cambian constantemente; [173] [174] [175] sin embargo, algunas capacidades FSD ("Control de tráfico y señales de stop (beta)") y futuras capacidades FSD ("Autosteer on City Streets") se anuncian para calles de la ciudad. [176]
La estrategia de conducción autónoma de Tesla ha sido criticada por peligrosa y obsoleta, ya que otras empresas la abandonaron hace años. [191] [192] [193] La mayoría de los expertos creen que el enfoque de Tesla de intentar lograr vehículos autónomos evitando los mapas de alta definición y el lidar no es factible. [194] [195] [196] El analista de automóviles Brad Templeton ha criticado el enfoque de Tesla argumentando que "el enfoque sin mapas implica olvidar lo aprendido antes y hacerlo todo de nuevo". [197] En un estudio de mayo de 2021 realizado por Guidehouse Insights, Tesla ocupó el último lugar tanto en estrategia como en ejecución en el sector de la conducción autónoma. [186] Algunos informes de noticias de 2019 afirman que "prácticamente todo el mundo ve [el lidar] como un ingrediente esencial para los coches de conducción autónoma" [198] y "los expertos y defensores dicen que añade profundidad y visión donde la cámara y el radar por sí solos se quedan cortos". [199]
Un estudio de agosto de 2021 realizado por Missy Cummings et al. descubrió que tres automóviles Tesla Model 3 exhibieron "una variación significativa entre vehículos y dentro de ellos en una serie de métricas relacionadas con el monitoreo del conductor, la alerta y el funcionamiento seguro de la autonomía subyacente... lo que sugiere que el rendimiento de los sistemas subyacentes de inteligencia artificial y visión por computadora fue extremadamente variable". [200]
En septiembre de 2021, los expertos legales William Widen y Philip Koopman argumentaron que la publicidad de Tesla del FSD como un sistema SAE de nivel 2 era engañosa para "evitar la supervisión regulatoria y los procesos de permisos requeridos para vehículos más altamente automatizados". [201] En cambio, argumentaron que el FSD debería considerarse una tecnología SAE de nivel 4 e instaron a los Departamentos de Transporte estatales de los EE. UU. a clasificarlo como tal, ya que los videos disponibles públicamente muestran que "los conductores de pruebas beta operan sus vehículos como para validar las características SAE de nivel 4 (alta automatización de la conducción), lo que a menudo revela situaciones dramáticamente riesgosas creadas por el uso de los vehículos de esta manera". [201]
En abril de 2016, Elon Musk declaró que la probabilidad de un accidente era al menos un 50% menor cuando se usaba el piloto automático sin citar ninguna referencia. En ese momento, se estimó que, en conjunto, los Tesla habían sido conducidos durante 47 millones de millas en modo piloto automático. [202] Después del primer accidente fatal ampliamente publicitado con piloto automático en mayo de 2016 que ocurrió en Williston, Florida , Tesla reconoció la muerte y publicó un blog en junio, comparando la tasa de mortalidad promedio en los Estados Unidos (en ese momento, una por cada 94 millones de millas) y en todo el mundo (una por cada 60 millones de millas) con la del piloto automático de Tesla (una por cada 130 millones de millas); [203] Tesla declaró en julio que "los clientes que usan el piloto automático son estadísticamente más seguros que los que no lo usan en absoluto", "el sistema [piloto automático] proporcionó un beneficio neto de seguridad a la sociedad" y "el umbral 'mejor que el humano' se había cruzado y se había validado sólidamente internamente". [204] El enfoque estadístico de Tesla fue criticado por comparar dos conjuntos de datos diferentes; Si bien el piloto automático se limita a la conducción en carretera, la tasa de mortalidad general en Estados Unidos incluye condiciones de conducción más variadas. Además, los vehículos de Tesla eran más grandes y más caros que la mayoría de los vehículos en la carretera, lo que los hacía generalmente más seguros en caso de accidente. [205] Otros factores que podrían haber afectado a los datos incluyen las condiciones climáticas y la demografía de los propietarios de Tesla. [206]
Fortune criticó la venta de 2.000 millones de dólares en acciones de Tesla, y señaló que la venta se produjo menos de dos semanas después de informar "inmediatamente" a la NHTSA del accidente fatal de principios de mayo, pero antes de que Tesla publicara su reconocimiento público del accidente a finales de junio; el artículo afirmaba que "Tesla y Musk no revelaron el hecho muy importante de que un hombre había muerto mientras usaba una tecnología de piloto automático que Tesla había comercializado vigorosamente como segura e importante para sus clientes". Musk respondió al artículo con un argumento estadístico en un correo electrónico al periodista, diciendo "De hecho, si alguien se molestara en hacer los cálculos (obviamente, usted no lo hizo) se daría cuenta de que de las más de 1 millón de muertes automovilísticas por año en todo el mundo, aproximadamente medio millón de personas se habrían salvado si el piloto automático de Tesla estuviera universalmente disponible. Por favor, tómese 5 minutos y haga los malditos cálculos antes de escribir un artículo que engañe al público". [207]
Tras el accidente de Williston, la NHTSA publicó un informe preliminar en enero de 2017 en el que se afirmaba que "la tasa de accidentes de los vehículos Tesla se redujo en casi un 40 por ciento después de la instalación de Autosteer". [208] [209] : 10 La NHTSA no publicó los datos hasta noviembre de 2018. Una empresa privada, Quality Control Systems, publicó un informe en febrero de 2019 analizando los mismos datos, afirmando que la conclusión de la NHTSA "no estaba bien fundada". [210] Parte de la verificación de los datos incluyó el escrutinio de los 43.781 vehículos que la NHTSA afirmó que tenían Autosteer instalado; de ellos, solo 5.714 tenían una lectura exacta del odómetro en el momento en que se instaló Autosteer y datos de despliegue del airbag; En conjunto, los datos de esos 5.714 vehículos mostraron 32 despliegues de airbag en las 42.001.217 millas (67.594.407 km) recorridas antes de la instalación, y 64 despliegues de airbag en las 52.842.182 millas (85.041.249 km) posteriores. [211] Eso significa que la tasa de accidentes, medida por la tasa de despliegues de airbag por millón de millas de viaje, en realidad aumentó de 0,76 a 1,21 después de la instalación de Autosteer, [212] : 9 un aumento del 59%. [211]
A partir de 2018, Tesla comenzó a publicar estadísticas de seguridad trimestralmente [213] , utilizando los valores para demostrar la disminución de las tasas de accidentes durante el uso del piloto automático [214] . Los datos han sido difíciles de interpretar, ya que no están disponibles los recuentos de accidentes reales, el kilometraje de referencia y la definición básica de un accidente [215] . Debido a esta falta de informes precisos, Green Car Reports señaló que "si bien estos números actualizados para el piloto automático son alentadores, está claro que las afirmaciones de Tesla sobre su seguridad enormemente superior, al menos en términos de accidentes fatales, todavía son vapor. Es demasiado pronto para llegar a conclusiones firmes sobre la seguridad del piloto automático ". [214]
En febrero de 2020, Andrej Karpathy, jefe de IA y visión artificial de Tesla, afirmó que los coches Tesla han recorrido 3.000 millones de millas con piloto automático, de las cuales 1.000 millones se han recorrido utilizando Navigate en piloto automático; los coches Tesla han realizado 200.000 cambios de carril automatizados; y se han iniciado 1,2 millones de sesiones de Smart Summon con coches Tesla. [216] También afirmó que los coches Tesla están evitando accidentes de peatones a un ritmo de decenas a cientos por día. [217] La empresa dejó de publicar estadísticas de seguridad en 2022, pero lo reanudó en enero de 2023. [218] Las primeras estadísticas de seguridad comparables utilizando Full Self-Driving se publicaron en marzo de 2023; Tesla afirmó que los vehículos que operaban bajo FSD experimentaron un choque que desplegó el airbag aproximadamente cada 3,2 millones de millas, en comparación con todos los choques con despliegue del airbag notificados a la policía, que ocurren aproximadamente cada 0,6 millones de millas. [219]
Además, un análisis estadístico publicado por primera vez como preimpresión en 2021 [215] y en forma final en 2023 [220] criticó los datos de tasa de accidentes autoinformados de Tesla, ya que no tenían en cuenta la demografía de los propietarios de los vehículos ni los tipos de carreteras en las que se operaba el Autopilot. [215] : 3 Si bien la tasa de accidentes de referencia del gobierno utilizada como comparación se basó en vehículos de todas las edades, que operaban en carreteras que iban desde autopistas, caminos rurales y calles de la ciudad, los vehículos Tesla son relativamente más nuevos y el Autopilot se limita a las operaciones en autopistas y carreteras. [213] Cuando se ajustó en función de la edad del conductor y el tipo de carretera, se descubrió que las tasas de accidentes del Autopilot eran casi las mismas que si se usaran solo "funciones de seguridad activa". [215] : Fig.4
Un estudio del MIT publicado en septiembre de 2021 concluyó que el piloto automático no es tan seguro como afirma Tesla y provocó que los conductores perdieran la atención. [221] [222]
Después de que la versión 7.0 del software de Tesla fuera lanzada en octubre de 2015 y Tesla afirmara que el Autopilot "[aliviaría] a los conductores de los aspectos más tediosos y potencialmente peligrosos de los viajes por carretera", [223] los primeros accidentes fatales que involucraron al Autopilot ocurrieron menos de un año después, en China (enero de 2016) [224] y los Estados Unidos (mayo de 2016). [225] Tesla declaró que había informado inmediatamente a la NHTSA sobre el accidente estadounidense en mayo, pero la NHTSA no lo anunció hasta el 30 de junio de 2016, cuando se informó ampliamente como la primera fatalidad relacionada con el Autopilot; [226] la muerte en China no se informó en los EE. UU. hasta ese septiembre, [224] y Tesla declaró que el daño le impidió confirmar si el Autopilot estaba activado. [227]
La primera muerte por piloto automático en EE. UU. ocurrió después de que el Tesla chocara contra el costado de un camión semirremolque y pasara por debajo del remolque de ese vehículo, cortando el invernadero . Después de la fatalidad, Tesla declaró que el piloto automático no reconoció el remolque blanco contra un cielo brillante. [228] Musk informó que las mejoras en el piloto automático en septiembre de 2016 "harían un uso mucho más efectivo del radar" y "muy probablemente" habrían evitado el accidente fatal. [229] A pesar de estas mejoras, el cambio a una plataforma de hardware diferente y actualizaciones adicionales al piloto automático, otro accidente fatal en mayo de 2019 ocurrió cuando un Tesla volvió a pasar por debajo del costado de un remolque. [230] Cinco años después de las primeras muertes, en 2021, Tesla comenzó la transición a "Tesla Vision" al eliminar el radar de los nuevos vehículos Model 3 e Y; [231] en 2023, The Washington Post informó que Musk había presionado por un enfoque de solo cámara a pesar de las objeciones de los ingenieros de Tesla. [232]
Hasta abril de 2024 [actualizar], se han verificado cuarenta y cuatro muertes relacionadas con la función de piloto automático de Tesla, aunque siguen pendientes otros incidentes mortales relacionados con el presunto uso del piloto automático. [233] Muchos de estos incidentes han recibido distintos grados de atención por parte de las publicaciones de noticias. Además, la NHTSA citó cientos de accidentes no mortales en documentos oficiales. [234] Además de no reconocer el lateral de un remolque, los accidentes con piloto automático se han atribuido a la distracción del conductor, [235] la incapacidad de detectar vehículos de emergencia estacionados, [236] y el uso indebido fuera del dominio de diseño operativo establecido de "autopistas de acceso controlado [...] con un divisor central, marcas claras en los carriles y sin tráfico cruzado". [237]
La Junta Nacional de Seguridad del Transporte (NTSB) criticó la falta de salvaguardas del sistema de Tesla en un accidente fatal de 2018 con el piloto automático en California, [238] y por no prever ni prevenir el "abuso predecible" del piloto automático. [239] [240] Tras esta crítica colectiva en medio de un mayor escrutinio regulatorio de los sistemas ADAS, especialmente el piloto automático de Tesla, [241] en junio de 2021, la NHTSA anunció una orden que exige a los fabricantes de automóviles que informen sobre los accidentes que involucran vehículos equipados con funciones ADAS en los Estados Unidos. [242] En abril de 2024, la NHTSA publicó los resultados de una investigación de 3 años de 956 colisiones de vehículos en las que se pensó que se había utilizado el piloto automático de Tesla, que encontró que el sistema había contribuido a al menos 467 colisiones, incluidas 13 que resultaron en muertes. [243]
Musk declaró en octubre de 2015 que "estamos aconsejando a los conductores que mantengan las manos en el volante [cuando el piloto automático está activado]". A pesar de esto, se publicaron varios videos en YouTube en ese momento que mostraban a los conductores usando el piloto automático para conducir con manos libres, incluida la ex esposa de Musk, Talulah Riley . [244] Se ha encontrado a otros conductores durmiendo al volante, conduciendo bajo los efectos del alcohol y realizando otras tareas inapropiadas con el piloto automático activado. [245] [246] Como se lanzó inicialmente, el sistema de piloto automático usa un sensor de torsión para detectar si las manos del conductor estaban en el volante [247] [248] y da advertencias audibles y visuales para que el conductor tome el volante cuando no se detecta torsión, pero varios propietarios confirmaron que podían conducir durante varios minutos con las manos libres antes de recibir una advertencia. [244] La NHTSA ordenó que en 2018 se discontinuaran las ventas de al menos un dispositivo diseñado para vencer al sensor de torsión . [249] Inicialmente, Tesla decidió no agregar opciones de monitoreo del conductor más avanzadas para garantizar que los conductores siguieran comprometidos con la tarea de conducir. [250]
A fines de mayo de 2021, una nueva versión del software habilitó las cámaras orientadas al conductor dentro de los nuevos Model 3 y Model Y (es decir, los primeros automóviles como parte del cambio a Tesla Vision) para monitorear la atención del conductor mientras usa Autopilot. [251] Los automóviles Model S y Model X fabricados antes de 2021 no tienen una cámara interior y, por lo tanto, físicamente no pueden ofrecer tales capacidades, aunque se espera que las versiones renovadas tengan una. [252] Una revisión del sistema de monitoreo basado en cámara en la cabina realizada por Consumer Reports encontró que los conductores aún podían usar Autopilot incluso cuando miraban hacia otro lado de la carretera o usaban sus teléfonos, y también podían habilitar el software beta FSD "con la cámara cubierta". [253]
En 2022, Musk aceptó una propuesta en Twitter de que "los usuarios con más de 10,000 millas en FSD Beta deberían tener la opción de apagar el aviso del volante", [254] diciendo que el sistema se actualizaría en enero de 2023. [255] [256] En abril, Musk confirmó que el aviso se estaba reduciendo gradualmente. [257] Ese junio, un pirata informático descubrió que FSD Beta tenía un modo no documentado que deshabilita todo monitoreo del conductor. [258] La NHTSA escribió una carta a Tesla bajo la autoridad de EA 22-002 el 26 de julio, señalando que el nuevo modo "podría provocar una mayor falta de atención del conductor y la falta de supervisión adecuada del piloto automático". La carta iba adjunta a una Orden Especial solicitando cuándo se actualizaba el software con el modo oculto, los pasos detallados o las condiciones necesarias para desbloquear ese modo y las razones por las que Tesla emitió las actualizaciones. [259] Tesla respondió el 25 de agosto; [260] La respuesta fue considerada confidencial y no hay una versión pública disponible. [261]
Un módulo de "eliminación de molestias" vendido como accesorio de posventa ajusta automáticamente el volumen desde el volante, que se registra como entrada del volante, lo que permite a los conductores quitar las manos del volante. La evidencia anecdótica ha demostrado que el módulo es efectivo solo para los vehículos Tesla vendidos en los Estados Unidos y Canadá, lo que lleva a la especulación de que el software de monitoreo del conductor es diferente según la región. [262]
Es posible que el piloto automático no detecte vehículos detenidos; el manual indica: "El control de crucero adaptado al tráfico no puede detectar todos los objetos y puede que no frene o desacelere en el caso de vehículos detenidos, especialmente en situaciones en las que usted conduce a más de 50 mph (80 km/h) y un vehículo que está siguiendo se sale de su trayectoria de conducción y, en su lugar, hay un vehículo u objeto detenido frente a usted". [263] Esto ha provocado numerosos accidentes con vehículos de emergencia detenidos. [264] [265] [266] [267]
En una encuesta de Bloomberg de 2019, cientos de propietarios de Tesla informaron comportamientos peligrosos con el piloto automático, como frenadas fantasma, desviaciones fuera del carril o no detenerse ante peligros en la carretera. [268] Los usuarios del piloto automático también han informado de fallas y apagados repentinos del software, colisiones con barreras de salida, fallas del radar, virajes inesperados, seguir de cerca a otros vehículos y cambios de velocidad desiguales. [269]
Ars Technica señala que el sistema de frenos tiende a activarse más tarde de lo que algunos conductores esperan. [270] Un conductor afirmó que el piloto automático de Tesla no frenó, lo que provocó colisiones, pero Tesla señaló que el conductor desactivó el control de crucero del automóvil antes del choque. [271] El sistema de frenado automático de emergencia (AEB) también se activa antes de lo que algunos conductores esperan debido a un error de software, lo que provocó un retiro del mercado en 2021 por activación falsa del sistema AEB. [272]
Ars Technica también señaló que, si bien los cambios de carril pueden ser semiautomáticos (si el piloto automático está activado y el vehículo detecta automóviles que se mueven lentamente o si se le exige que permanezca en la ruta, el automóvil puede cambiar de carril automáticamente sin ninguna intervención del conductor), el conductor debe mostrarle al automóvil que está prestando atención tocando el volante antes de que el automóvil realice el cambio. [273] En 2019, Consumer Reports señaló que la función de cambio de carril automático de Tesla es "mucho menos competente que un conductor humano". [274]
La mayoría de los vehículos modernos, incluidos los Tesla, están equipados con grabadoras de datos de eventos que recopilan datos del vehículo para ayudar en las investigaciones y los diagnósticos. Los datos recopilados incluyen velocidad, aceleración, uso de los frenos, entrada de dirección y estado de las funciones de asistencia al conductor. Los vehículos Tesla registran permanentemente estos datos como archivos de "registro de puerta de enlace" en una tarjeta microSD en la unidad de control multimedia, a una velocidad de aproximadamente 5 veces por segundo ( hercios o Hz). Los archivos de registro de puerta de enlace se cargan en Tesla cuando el vehículo se conecta a una red Wi-Fi. [275]
La computadora del piloto automático almacena imágenes (para todos los vehículos) y videos (para vehículos del año modelo 2016 y posteriores) junto con datos de conducción similares a los capturados en archivos de registro de la puerta de enlace a una resolución temporal más alta (hasta 50 Hz) y los carga a Tesla periódicamente. Estas "instantáneas" se eliminan localmente después de ser cargadas. Tesla ha guardado silencio sobre sus políticas de retención de datos. [275] Los datos de las instantáneas siempre se capturan cuando el vehículo choca (definido como el despliegue de los airbags) y se cargan a través de una red celular 4G . [275] A veces, también se capturan instantáneas para otros eventos definidos por Tesla.
Incluso cuando el piloto automático no proporciona activamente controles de dirección, aceleración y freno, los modelos Tesla de 2016 y posteriores operan el piloto automático en "modo sombra". [276] Cuando las entradas de control generadas por el piloto automático en modo sombra no coinciden con las del conductor humano, el vehículo puede grabar una instantánea para ayudar a entrenar el sistema, después de lo cual el equipo del piloto automático puede revisar los datos. [277] Como explicó Karpathy, Tesla puede implementar "detectores" de software adicionales activados por situaciones específicas identificadas por datos de instantáneas, que luego cargan datos de la cámara y otros datos a Tesla cuando se detectan situaciones similares. Estos datos se utilizan para revisar los detectores existentes. [277]
En el caso de los Tesla fabricados después de mediados de 2017, la computadora del piloto automático también registra datos de "ruta", incluida la ruta del automóvil determinada por las "migas de pan" del GPS durante todo el viaje. Un viaje comienza cuando el vehículo cambia de Estacionamiento a Conducir y termina cuando cambia nuevamente a Estacionamiento. Los datos de la ruta también incluyen la velocidad del vehículo, el tipo de carretera utilizada y el estado del piloto automático. Al igual que las instantáneas, estos datos de la ruta se eliminan localmente después de ser cargados en Tesla. [275] Los datos de la ruta están destinados a ser anonimizados eliminando el número de identificación del vehículo (VIN) y asignando un identificador temporal, pero el mismo identificador temporal se puede asignar a un solo vehículo durante varias semanas. [278]
Según las políticas de privacidad de Tesla, [279] la empresa no vende datos de clientes ni de vehículos, pero puede compartirlos con entidades gubernamentales. [278] La Fundación Mozilla clasificó a Tesla como la peor de 25 marcas de automóviles, recibiendo puntuaciones por debajo del estándar en todos los criterios de privacidad y seguridad de la fundación. [280] [281]
Tesla Vision se apoya en el "equipo de etiquetado del piloto automático", [282] que visualiza breves videoclips grabados por las cámaras del vehículo y etiqueta señales y objetos visibles, entrenando al intérprete de visión artificial. [232] [283]
El etiquetado de datos fue manejado primero por una empresa de outsourcing sin fines de lucro llamada Samasource , que inicialmente proporcionó 20 trabajadores en Nairobi , Kenia. [284] El equipo de Nairobi creció a 400 trabajadores en 2016, pero Karpathy declaró más tarde que la "calidad [de su trabajo] no era sorprendente" y Tesla comenzó a contratar empleados para el etiquetado de datos en San Mateo, California . [284]
En abril de 2023, se reveló que los empleados de etiquetado de San Mateo habían compartido clips internamente entre ellos, incluidas grabaciones de áreas de propiedad privada como garajes, así como accidentes, incidentes de furia al volante y videos de memes anotados con "subtítulos o comentarios divertidos". Los ex empleados de Tesla describieron el ambiente de la oficina de San Mateo como "libre" y señalaron que "las personas que fueron promovidas a puestos de liderazgo compartieron muchos de estos [clips] divertidos y ganaron notoriedad por ser divertidas". En un caso, el accesorio sumergible Lotus Esprit que aparece en la película de James Bond La espía que me amó , que había sido comprado por Elon Musk en 2013 y almacenado en su garaje, fue grabado y compartido por miembros del equipo de etiquetado. Debido a que compartir estos clips era aparentemente para entretenimiento y no estaba relacionado con el entrenamiento de Autopilot, Carlo Plitz, un abogado de privacidad de datos, señaló que "sería difícil encontrar una justificación legal" para hacerlo. [284] Después del cierre de la oficina de San Mateo en junio de 2022, el equipo de etiquetado se trasladó a Buffalo, Nueva York , [283] donde Tesla tiene un total de 675 empleados, cientos de los cuales son etiquetadores. [284]
En 2015, un portavoz de la NHTSA dijo que "cualquier vehículo autónomo tendría que cumplir con los estándares federales de seguridad de vehículos motorizados aplicables" y que la NHTSA "tendrá las políticas y regulaciones apropiadas para garantizar la seguridad de este tipo de vehículos". [285] El 1 de febrero de 2021, Robert Sumwalt , presidente de la NTSB, escribió una carta a la NHTSA con respecto al "Marco para la seguridad del sistema de conducción automatizada" de esa agencia, que se había publicado para comentarios en diciembre de 2020. [286] [287] [288] En la carta, Sumwalt recomendó que la NHTSA incluyera la monitorización del usuario como parte del marco de seguridad y reiteró que "la falta de salvaguardas apropiadas por parte de Tesla y la inacción de la NHTSA" para actuar según la recomendación de la NTSB "de que la NHTSA desarrolle un método para verificar que los fabricantes de vehículos equipados con Nivel 2 incorporen salvaguardas del sistema que limiten el uso de sistemas de control de vehículos automatizados a las condiciones para las que fueron diseñados" fue una causa que contribuyó a un accidente fatal de un vehículo en Delray Beach, Florida, en 2019. [287] : 7
El 29 de junio de 2021, la NHTSA anunció la Orden General Permanente (SGO) 2021-01. Según esta Orden General, los fabricantes y operadores de vehículos equipados con sistemas avanzados de asistencia al conductor (ADAS, SAE J3016 Nivel 2) o sistemas de conducción automatizada (ADS, SAE Nivel 3 o superior) deben informar los accidentes. [242] Se emitió una orden enmendada que entró en vigencia el 12 de agosto de 2021. [289] Los informes se limitan a los accidentes en los que el ADAS o ADS se activó dentro de los 30 segundos anteriores al accidente que involucran una lesión que requiere hospitalización, una fatalidad, un vehículo que se remolca desde la escena, un despliegue de la bolsa de aire o que involucra a un "usuario vulnerable de la carretera" (por ejemplo, peatón o ciclista); estos accidentes deben informarse a la NHTSA dentro de un día calendario, y se requiere un informe actualizado dentro de los 10 días calendario. [290] : 13–14 El 16 de agosto de 2021, después de informes de 17 heridos y una muerte en accidentes automovilísticos que involucraron vehículos de emergencia, los reguladores de seguridad automotriz de EE. UU. abrieron una investigación de seguridad formal (PE 21-020) sobre el sistema de asistencia al conductor Autopilot de Tesla. [291]
Los datos iniciales de SGO 2021-01 se publicaron en junio de 2022; 12 fabricantes informaron 392 accidentes que involucraron ADAS (nivel 2) entre julio de 2021 y el 15 de mayo de 2022. De esos 392 accidentes, 273 fueron vehículos Tesla, de aproximadamente 830.000 vehículos Tesla equipados con ADAS. Honda tuvo el siguiente total más alto, con 90 accidentes reportados de aproximadamente 6 millones de vehículos Honda equipados con ADAS. [292] La NHTSA dijo que las cifras de Tesla pueden parecer altas porque tiene informes de accidentes en tiempo real, mientras que otros fabricantes de automóviles no los tienen, por lo que sus informes de accidentes pueden entregarse más lentamente o no reportarse en absoluto. [293] En conjunto, cinco personas murieron y seis más resultaron gravemente heridas en los 392 accidentes de ADAS que se informaron. [292] Según datos actualizados, hasta junio de 2023, los conductores de Tesla que utilizan el piloto automático habían estado involucrados en 736 accidentes y 17 muertes en total desde 2019; se habían producido 11 muertes desde mayo de 2022. [294] [295]
La SGO 2021-01 también se aplicó a los fabricantes de vehículos equipados con ADS (niveles 3 a 5); 25 fabricantes de ADS informaron 130 accidentes en total desde la publicación de datos inicial en junio de 2022, encabezados por Waymo (62), Transdev Alternative Services (34) y Cruise LLC (23). En la mayoría de los casos, estos accidentes implicaron que el vehículo con ADS fue golpeado por detrás; solo se informó de una lesión grave y 108 de los 130 accidentes no resultaron en lesiones. [292]
El Autopilot de Tesla fue objeto de una demanda colectiva presentada en 2017 que afirmaba que el sistema Enhanced Autopilot de segunda generación era "peligrosamente defectuoso". [296] La demanda se resolvió en 2018; los propietarios que en 2016 y 2017 pagaron $5,000 (equivalentes a $6,348 en 2023) para equipar sus automóviles con el software Autopilot actualizado recibieron una compensación de entre $20 y $280 por el retraso en la implementación de Autopilot 2.0. [297]
En 2020, un tribunal alemán dictaminó en una demanda interpuesta en 2019 por el Centro para la Lucha contra la Competencia Desleal
que Tesla había violado las regulaciones publicitarias con su comercialización de Autopilot. [298] [299] [300] Tras la apelación, esa decisión fue revocada en 2021 por un tribunal superior con la condición de que Tesla aclarara las capacidades de Autopilot en su sitio web. [301] [302]En julio de 2022, un tribunal alemán otorgó a una demandante la mayor parte de los 112.000 euros que había pagado por un Model X, basándose en parte en un informe técnico que demostraba que el Autopilot no reconocía de forma fiable los obstáculos y activaba innecesariamente sus frenos, lo que podría causar un "peligro masivo" en las ciudades; los abogados de Tesla argumentaron sin éxito que el Autopilot no estaba diseñado para el tráfico urbano. [303]
En septiembre de 2022, se presentó una demanda colectiva en el Tribunal de Distrito de los EE. UU. (Norte de California) en la que se alegaba que "durante años, Tesla ha comercializado de manera engañosa y confusa su tecnología ADAS como tecnología de conducción autónoma con varios nombres, incluidos 'Piloto automático', 'Piloto automático mejorado' y 'Capacidad total de conducción autónoma ' ", y se agregó que Tesla manifestó "que estaba perpetuamente a punto de perfeccionar esa tecnología y finalmente cumplir su promesa de producir un automóvil completamente autónomo", mientras que "Tesla sabía desde hacía años que sus declaraciones sobre su tecnología ADAS eran engañosas y confusas, pero la empresa las hizo de todos modos". [304] [305] Tesla presentó una moción en noviembre de 2022 para desestimar el caso, defendiendo las acciones de la empresa como "un mero fracaso en la realización de un objetivo aspiracional a largo plazo [de un automóvil completamente autónomo] [y] no un fraude", basando la moción en la cláusula de arbitraje privado en el contrato de compra firmado por cada comprador. [306] [307]
Los accionistas de Tesla presentaron una segunda demanda colectiva en el mismo tribunal a finales de febrero de 2023. [308] La demanda alega que los acusados "habían exagerado significativamente la eficacia, viabilidad y seguridad de las tecnologías de piloto automático y FSD [de Tesla]" y que esos mismos sistemas "crearon un grave riesgo de accidente y lesiones", lo que "sometió a Tesla a un mayor riesgo de escrutinio regulatorio y gubernamental y de acción de cumplimiento", vinculando múltiples accidentes específicos a disminuciones documentadas en los precios de las acciones. [309] La demanda fue desestimada sin perjuicio en septiembre de 2024, ya que el juez dictaminó que las afirmaciones de Musk eran "bombardeos corporativos". [310] Los abogados de Tesla argumentaron que los bombos y platillos cubrían las declaraciones "[E]l piloto automático es 'sobrehumano ' " y " 'queremos acercarnos lo más posible a la perfección ' "; como escribió el juez en la moción que concedía la desestimación, "estas vagas declaraciones de optimismo corporativo no son objetivamente verificables". Sin embargo, los abogados de Tesla también argumentaron que otras declaraciones como "la seguridad es 'primordial ' " y "los autos Tesla son 'absurdamente seguros ' " también eran exageraciones, lo que el juez rechazó, ya que eran objetivamente verificables. [311] : 16–17
En abril de 2023, Tesla fue declarada inocente en una demanda presentada en 2020 por una conductora que demandó por daños y perjuicios después de afirmar que el sistema Autopilot guió su Tesla Model S hacia una acera, lo que provocó el despliegue de una bolsa de aire y lesiones faciales. [312] Los jurados explicaron en entrevistas posteriores al juicio que "Autopilot nunca confesó ser un piloto automático. No es un coche que se conduce solo... [Tesla] se mantuvo firme en que el conductor debe estar siempre atento". [313]
Los herederos de dos conductores que murieron en 2019 mientras utilizaban el piloto automático presentaron demandas adicionales, una en California y otra en Florida. En el caso de California, que no se había informado anteriormente, Tesla argumentó que el conductor había consumido alcohol y no está claro que el piloto automático estuviera activado; [314] los abogados del demandante alegaron que un defecto conocido en el sistema del piloto automático había hecho que el vehículo se saliera de una autopista a 105 km/h (65 mph) y chocara contra una palmera. [315] Tesla prevaleció en ese caso, y el jurado votó 9 a 3 en octubre de 2023 que no había ningún defecto de fabricación. [316] En el caso de Florida, el juez rechazó la moción de desestimación de Tesla, concluyendo que no podía "imaginar cómo algunos consumidores comunes no tendrían alguna creencia de que los vehículos Tesla eran capaces de conducirse por sí mismos sin usar las manos", [317] citando "pruebas razonables" que demostraban que Tesla había "adoptado una estrategia de marketing que presentaba los productos como autónomos" y que las declaraciones de Musk "tuvieron un efecto significativo en la creencia sobre las capacidades de los productos". [318]
No creo que se deba llamar a algo, por ejemplo, piloto automático, cuando la letra pequeña dice que debes tener las manos en el volante y los ojos en la carretera en todo momento.
— Pete Buttigieg , Secretario de Transporte de Estados Unidos , entrevista con Associated Press , mayo de 2023 [319]
El Centro para la Seguridad Automotriz y el Organismo de Vigilancia del Consumidor escribieron a la Comisión Federal de Comercio (FTC) en 2018, pidiéndoles que abrieran una investigación sobre la comercialización de Autopilot. La carta afirmaba que "las prácticas de marketing y publicidad de Tesla, combinadas con las declaraciones públicas de Elon Musk, han hecho que sea razonable que los propietarios de Tesla crean, y actúen en consecuencia, que un Tesla con Autopilot es un vehículo autónomo capaz de 'conducirse por sí solo ' ". [320] Los grupos renovaron su apelación a la FTC y agregaron al DMV de California en 2019, [321] señalando que "Tesla sigue siendo el único fabricante de automóviles que describe sus vehículos de Nivel 2 como 'autoconducidos' y el nombre de su conjunto de funciones de asistencia al conductor, Autopilot, connota autonomía total". [322] Los senadores estadounidenses Ed Markey (D-MA) y Richard Blumenthal (D-CT) se hicieron eco de estas preocupaciones ante la FTC en 2021. [323]
Un estudio del IIHS de 2019 mostró que el nombre "Autopilot" hace que más conductores perciban erróneamente que comportamientos como enviar mensajes de texto o tomar una siesta son seguros, en comparación con sistemas de asistencia al conductor de nivel 2 similares de otras compañías automotrices. [324] En 2020, los expertos en seguridad del Reino Unido calificaron al Autopilot de Tesla de "especialmente engañoso". [325]
Si bien las pruebas del piloto automático de Euro NCAP en un Modelo 3 de 2020 señalaron que el sistema superaba el nivel de asistencia al vehículo brindada, la asociación señaló la naturaleza engañosa del nombre del sistema y el riesgo de una dependencia excesiva del sistema. [326]
En 2020, el ingeniero de usabilidad Dixon publicó un artículo en el que calificaba de exageradas las descripciones de Tesla sobre las capacidades del piloto automático y del FSD. [327]
En 2021, tras más de una docena de accidentes con el Autopilot (algunos mortales), el Departamento de Justicia de Estados Unidos (DOJ) inició una investigación penal para determinar si Tesla engañó a los consumidores, inversores y reguladores sobre el Autopilot. [328] Tesla confirmó que el DOJ había solicitado documentos relacionados con el Autopilot y el FSD en su presentación 10-K para 2022. [329] La Comisión de Bolsa y Valores también abrió una investigación civil independiente sobre las declaraciones hechas por Tesla y sus ejecutivos sobre el Autopilot. [330] [331]
En julio de 2022, el DMV de California presentó dos quejas ante la Oficina de Audiencias Administrativas del estado en las que se alegaba que Tesla "hizo o difundió declaraciones que son falsas o engañosas y que no se basan en hechos" relacionadas con las tecnologías de "piloto automático y conducción autónoma total". [332] [333] [334] En agosto de 2022, Tesla solicitó una audiencia para presentar su defensa. [335]
En septiembre de 2022, el gobernador de California, Gavin Newsom, firmó el proyecto de ley estatal SB 1398, [336] que entró en vigor el 1 de enero de 2023 y prohíbe a cualquier fabricante o concesionario de automóviles con funciones de automatización parcial del conductor utilizar un lenguaje engañoso para publicitar sus vehículos como autónomos, por ejemplo, nombrando el sistema "Conducción autónoma total". [337] [338]
En octubre de 2016, al mismo tiempo que el lanzamiento de HW2, [339] Tesla lanzó un video titulado "Full Self-Driving Hardware on All Teslas" [340] [341] que afirmaba demostrar Full Self-Driving, el sistema diseñado para extender la conducción automatizada a las carreteras locales. [342] [343] Musk luego tuiteó un enlace a una versión más larga en noviembre de 2016. [344] En el video, el conductor no toca el volante ni los pedales durante todo el video. El video también muestra perspectivas de las cámaras del vehículo y el sistema de reconocimiento de imágenes. [345] Por sugerencia de Musk, la tarjeta de título dice "La persona en el asiento del conductor solo está allí por razones legales. No está haciendo nada. El auto se conduce solo". [346] Fue apodado el video " Paint It Black ", en honor a la canción de los Rolling Stones de 1966 utilizada como banda sonora. [342]
En 2021, The New York Times entrevistó a antiguos empleados que ayudaron a producir el vídeo de 2016. [347] En la entrevista, afirmaron que el vehículo estaba siguiendo una ruta que había sido mapeada con cámaras de escaneo detallado, una tecnología que no está disponible en los autos de producción de Tesla. Incluso con estos aumentos en su lugar, los conductores humanos tuvieron que intervenir para tomar el control, el vehículo supuestamente chocó "una barrera al costado de la carretera" en las instalaciones de Tesla durante la filmación, lo que requirió reparaciones en el vehículo, y el automóvil se estrelló contra una cerca cuando intentaba estacionarse automáticamente. [348] En enero de 2024, Bloomberg publicó una exposición basada en correos electrónicos internos de Tesla que revelaba que Musk supervisó personalmente la edición y posproducción del video. [349]
Motor Trend y Jalopnik compararon lo que Tesla había mostrado con el video engañoso que mostraba un camión Nikola One EV que en realidad funcionaba con la gravedad; [350] Jalopnik comentó que "[el video de Tesla] puede ser peor, porque este video se usó para sugerir engañosamente las capacidades de un sistema implementado en manos de personas reales y utilizado en vías públicas". [351] En junio de 2022, Ashok Elluswamy, director del software Autopilot, hizo una declaración durante una declaración tomada para una demanda civil presentada contra Tesla por la familia de un conductor que murió en 2018 después de que el Model X que conducía usando Autopilot se estrellara contra una barrera de concreto en Mountain View, California. Elluswamy afirmó que el video no tenía la intención original de "representar con precisión lo que estaba disponible para los clientes en 2016. Era para retratar lo que era posible incorporar al sistema", mientras que el video final no tenía tal descargo de responsabilidad. [352] Un juez del circuito de Florida también señaló el video final como parte de la estrategia de marketing de Tesla al rechazar la moción de Tesla de desestimar una demanda por una muerte en 2019, y escribió que "en este video no hay ninguna indicación de que el video sea aspiracional o de que esta tecnología no exista actualmente en el mercado". [318]
Según un documento publicado en junio de 2021, la NHTSA ha iniciado al menos 30 investigaciones sobre accidentes de Tesla que se cree que involucraron el uso del piloto automático, y algunos de ellos resultaron en muertes. [353] [354]
En agosto de 2021, la Oficina de Investigación de Defectos (ODI) de la NHTSA abrió una evaluación preliminar (PE) designada PE 21-020 y publicó una lista de once accidentes en los que vehículos Tesla chocaron contra vehículos de emergencia estacionados; en cada caso, la NHTSA confirmó que el piloto automático o el control de crucero consciente del tráfico estaban activos durante la aproximación a los accidentes. De los once accidentes, siete resultaron en diecisiete lesiones en total y uno resultó en una muerte. El alcance de la evaluación planificada del sistema de piloto automático abordó específicamente los sistemas utilizados para monitorear y hacer cumplir la participación del conductor. [355] En septiembre de 2021, la NHTSA agregó un duodécimo accidente en Orlando de agosto de 2021 a la lista de investigación. [356]
En agosto de 2021, la NHTSA envió una solicitud de información relacionada con la PE 21-020 al director de calidad de campo de Tesla. La respuesta debía entregarse antes del 22 de octubre de 2021. [357] [358] En septiembre de 2021, la NHTSA envió una solicitud de información a Tesla y otros fabricantes de automóviles para obtener datos comparativos de ADAS. [359] [360] [361] Después de que Tesla implementara su Actualización de detección de luces de emergencia en septiembre de 2021, la NHTSA envió una carta de seguimiento a Tesla en octubre de 2021 solicitando "una cronología de eventos, investigaciones internas y estudios" que llevaron a la implementación de la actualización, [362] ya que potencialmente abordaba un defecto de seguridad, que requiere un retiro formal. [363]
En febrero de 2022, la NHTSA ODI abrió una segunda evaluación preliminar (PE 22-002) por "frenado fantasma" en los vehículos Tesla Model 3 y Model Y 2021-2022. [376] La PE 22-002 se correlacionó con la eliminación del hardware del radar de esos vehículos en mayo de 2021; en el momento en que se abrió la PE 22-002, la NHTSA no tenía conocimiento de ningún choque o lesión resultante de las quejas. [377] Según algunas quejas, al utilizar el piloto automático, "puede producirse una desaceleración rápida sin previo aviso, al azar y, a menudo, repetidamente en un solo ciclo de conducción". [376] El Washington Post también publicó un artículo que detalla el aumento de quejas a la NHTSA por falsos positivos en su sistema automático de frenado de emergencia. [378] Para mayo de 2022, la NHTSA había recibido 758 informes de frenadas inesperadas cuando se utilizaba el piloto automático y solicitó que Tesla respondiera las preguntas antes del 20 de junio de 2022. [379] [380]
También en junio de 2022, NHTSA ODI actualizó el PE 21-020 a un análisis de ingeniería (EA) y lo designó como EA 22-002, cubriendo aproximadamente 830.000 vehículos Tesla vendidos entre 2014 y 2022. [366] Los datos para PE 21-020 se habían complementado con solicitudes de información previas a Tesla (19 de abril de 2021) y la Orden General Permanente (SGO) 2021-01, [381] emitida el 29 de junio de 2021 [382] y enmendada el 5 de agosto de 2021, [366] que requería que los fabricantes de sistemas avanzados de asistencia a la conducción informaran rápidamente de los accidentes a la NHTSA. [383]
La investigación se amplió a un análisis de ingeniería después de que la NHTSA revisara los datos de 191 accidentes que involucraron el uso de piloto automático o tecnologías ADAS de nivel 2 relacionadas (control de crucero consciente del tráfico, dirección automática, navegación en piloto automático o cambio automático de carril). [386] 85 fueron eliminados porque otros conductores estaban involucrados o no había datos suficientes. [386] Se encontró que en aproximadamente la mitad de los 106 accidentes restantes, el conductor no respondió lo suficiente a la tarea de conducir, y aproximadamente 1 cuarto de los 106 fueron resultado de operar el piloto automático fuera de carreteras de acceso limitado, o cuando la tracción y las condiciones climáticas podían interferir. [386] Existía telemetría detallada para 43 de los 106 accidentes; de estos, los datos de 37 indicaban que las manos del conductor estaban en el volante en el último segundo antes de la colisión. [366]
El incidente de Laguna Beach identificado inicialmente en PE 21-020 fue eliminado de EA 22-002 ya que se encontró que "el vehículo chocado estaba estacionado fuera del tráfico y sin luces encendidas". [366] Se agregaron seis incidentes, lo que hace un total de dieciséis accidentes en los que un Tesla chocó con vehículos de emergencia estacionados, incluido el incidente de agosto de 2021 en Orlando. [366] En estos 16 incidentes, la NHTSA encontró que la mayoría resultó en advertencias de colisión frontal y aproximadamente la mitad resultó en frenado automático de emergencia. [366] En promedio, cuando el video estaba disponible, los conductores habrían podido ver un impacto potencial ocho segundos antes de la colisión, pero el piloto automático abortaría el control "menos de un segundo antes del primer impacto", [387] lo que puede no haber sido tiempo suficiente para que el conductor asumiera el control total. [388] Además, los datos sugieren que el requisito de Tesla de que los conductores del piloto automático tengan las manos en el volante en todo momento puede no ser suficiente para garantizar que el conductor preste atención a la tarea de conducir. [389] [386]
En agosto de 2022, la NHTSA envió una segunda carta a Tesla para la EA 22-002, en la que se solicitaba una descripción de la función de la cámara orientada al conductor, la identificación de todas las demandas o arbitrajes resultantes del uso del piloto automático, incluidas las transcripciones completas de las declaraciones, y "la explicación y la evidencia de ingeniería y seguridad para las decisiones de diseño con respecto a la aplicación de la participación/atención del conductor". [390] Tesla presentó una respuesta en septiembre. En julio de 2023 se envió una carta de seguimiento, en la que se solicitaban datos actuales y actualizaciones de la respuesta anterior. [391] A partir de octubre de 2023, la NHTSA comunicó sus conclusiones preliminares a Tesla durante varias reuniones, seguidas de una retirada voluntaria el 5 de diciembre de 2023 para proporcionar una actualización de software por aire para "incorporar controles y alertas adicionales... para alentar aún más al conductor a adherirse a su responsabilidad de conducción continua siempre que se active el Autosteer... [y proporcionar] controles adicionales al activar el Autosteer y mientras se utiliza la función fuera de las carreteras de acceso controlado", aunque no coincidió con el análisis de la NHTSA. [392] Al presentar su Informe de información sobre defectos asociado con la retirada de diciembre de 2023, Tesla concluyó que "en determinadas circunstancias, los controles del sistema de piloto automático pueden ser insuficientes para un sistema de asistencia al conductor que requiere la supervisión constante de un conductor humano". [393]
El EA 22-002 se cerró en abril de 2024. [394] ODI concluyó que su "análisis de los datos de accidentes indica que, antes del [recall de diciembre de 2023], el diseño del piloto automático no era suficiente para mantener la atención de los conductores", citando datos que muestran que en 59 de 109 accidentes, los peligros fueron visibles durante al menos cinco segundos antes de la colisión. Además, ODI agregó, basándose en la telemetría del vehículo, "las advertencias proporcionadas por el piloto automático cuando se activó el sistema de dirección automática no garantizaron adecuadamente que los conductores mantuvieran su atención en la tarea de conducción", lo que demuestra que en aproximadamente el 80% de 135 incidentes, el frenado y/o la dirección no se produjeron hasta menos de un segundo antes de una colisión. [393] Una comparación con ADAS de nivel 2 similares llevó a ODI a concluir que "Tesla [es] un caso atípico de la industria en su enfoque de la tecnología L2 al no combinar un sistema de participación del conductor débil con las capacidades operativas permisivas del piloto automático". [393]
Como resultado, ODI abrió inmediatamente una segunda investigación sobre la efectividad del retiro de diciembre de 2023, [395] señalando "preocupaciones [identificadas] debido a eventos de choque posteriores a la solución y resultados de pruebas preliminares de la NHTSA de vehículos solucionados. Además, Tesla ha declarado que una parte de la solución requiere que el propietario opte por participar y permite que un conductor la revierta fácilmente. Tesla también ha implementado actualizaciones que no son de solución para abordar problemas que parecen estar relacionados con las preocupaciones de ODI bajo EA22002". [396]
Tesla emitió una "Actualización de detección de luces de emergencia" para el piloto automático en septiembre de 2021 que tenía como objetivo detectar "luces de emergencia intermitentes del vehículo en condiciones de poca luz y luego [responder] a dicha detección con alertas al conductor y cambios en la velocidad del vehículo mientras el piloto automático está activado", después de que la NHTSA hubiera abierto el PE 21-020 el mes anterior. Después de que se emitió la actualización, la NHTSA envió una carta a Tesla preguntando por qué la actualización no se había realizado en el marco del proceso de retirada, ya que "cualquier fabricante que emita una actualización por aire que mitigue un defecto que represente un riesgo irrazonable para la seguridad del vehículo de motor debe presentar oportunamente un aviso de retirada adjunto a la NHTSA". [397] [398]
Tesla emitió un llamado a revisión de 11.728 vehículos en octubre de 2021 debido a un error de comunicación que podría provocar falsas advertencias de colisión frontal o activaciones inesperadas del sistema automático de frenado de emergencia. El error había sido introducido por la actualización inalámbrica del firmware de la versión 10.3 del software beta de conducción autónoma completa, y se revirtió mediante otra actualización inalámbrica el mismo mes. [399] Los vehículos retirados se revirtieron a la versión 10.2 y luego se actualizaron a la 10.3.1. [272]
FSD 10.3 también se lanzó con diferentes perfiles de conducción para controlar el comportamiento del vehículo, denominados 'Chill', 'Average' y 'Assertive'; el perfil 'Assertive' atrajo una cobertura negativa en enero de 2022 por anunciar que "puede realizar paradas continuas " (pasar por señales de stop a una velocidad de hasta 5,6 mph), cambiar de carril con frecuencia y disminuir la distancia de seguimiento . [400] [401] El 1 de febrero, después de que la NHTSA le informara a Tesla que no detenerse en una señal de stop puede aumentar el riesgo de accidente y amenazara con "acciones inmediatas" por "elecciones de diseño intencionales que no sean seguras", [402] Tesla retiró casi 54.000 vehículos para desactivar el comportamiento de parada continua, [403] eliminando la función con una actualización de software por aire. [404]
El 16 de febrero de 2023, Tesla emitió un aviso de retiro del mercado para todos los vehículos equipados con el software beta de conducción autónoma completa, incluidos los modelos S y X de 2016-23, el modelo 3 de 2017-23 y el modelo Y de 2020-23, que abarcan 362 758 vehículos en total. [405] La NHTSA identificó cuatro situaciones de tráfico específicas en una carta enviada a Tesla el 25 de enero, [406] [407] y Tesla decidió voluntariamente solicitar un retiro del mercado para abordar esas situaciones, [405] que incluyen vehículos que operan bajo la versión beta de FSD que realizan las siguientes acciones inapropiadas: [406]
El retiro, que cubre todas las versiones de FSD Beta, [406] se realizó mediante el lanzamiento de una actualización de software en marzo de 2023. [136] [405]
El 12 de diciembre de 2023, luego de una investigación de 2 años por parte de la NHTSA , [408] Tesla emitió un retiro más amplio de todos los vehículos equipados con cualquier versión de Autosteer, incluidos el Model S 2012-2023; el Model X 2016-2023; el Model 3 2017-2023; y el Model Y 2020-2023, cubriendo 2,031,220 vehículos en total. [392] La NHTSA concluyó que los controles de Autosteer no eran suficientes para prevenir el mal uso y no aseguraban que los conductores mantuvieran "una responsabilidad continua y sostenida por la operación del vehículo". [392] Se implementó una actualización de software por aire en un subconjunto de vehículos tras la publicación del aviso de retiro, con planes de implementarla en la flota restante en una fecha posterior, lo que hizo que las alertas visuales fueran más prominentes dentro de la interfaz de usuario, simplificó el proceso para activar y desactivar Autosteer, agregó controles adicionales cuando Autosteer se usa cerca de intersecciones o en calles que no son caminos de acceso limitado y deshabilitó Autosteer si el conductor no demostró repetidamente la responsabilidad de conducir mientras usaba la función. [392] En febrero de 2024, Consumer Reports afirmó que sus pruebas de la actualización del retiro del Autopilot de Tesla no abordaron por completo las preocupaciones de seguridad planteadas por la NHTSA, diciendo que el retiro "aborda inconvenientes menores en lugar de solucionar los problemas reales". [409]
En el cuarto trimestre [de 2023], registramos un accidente por cada 5,39 millones de millas recorridas en las que los conductores utilizaban la tecnología Autopilot. En el caso de los conductores que no utilizaban la tecnología Autopilot, registramos un accidente por cada 1,00 millones de millas recorridas. En comparación, los datos más recientes disponibles de la NHTSA y la FHWA (de 2022) muestran que en los Estados Unidos hubo un accidente automovilístico aproximadamente cada 670.000 millas.
Nuestro objetivo con la introducción de este nuevo hardware y software no es hacer posible los coches sin conductor, que todavía están a años de convertirse en realidad. Nuestro sistema se llama piloto automático porque es similar a los sistemas que utilizan los pilotos para aumentar la comodidad y la seguridad cuando las condiciones son despejadas. El piloto automático de Tesla es una forma de liberar a los conductores de los aspectos más aburridos y potencialmente peligrosos de los viajes por carretera, pero el conductor sigue siendo responsable y, en última instancia, tiene el control del coche.
Si bien el piloto automático le libera de la manipulación manual de los controles de vuelo, debe mantener la vigilancia sobre el sistema para asegurarse de que realiza las funciones previstas y que la aeronave se mantiene dentro de los parámetros aceptables de altitud, velocidad aerodinámica y límites del espacio aéreo.
En "2 a 3 meses a partir de ahora", Tesla espera... la nueva validación del software para las funciones del piloto automático
Chris: El momento en que alguien podrá comprar uno de tus autos y, literalmente, simplemente tomar las manos del volante e irse a dormir y despertarse y descubrir que ha llegado. ¿Qué tan lejos está eso? ¿Para hacerlo de manera segura? Elon: Eso es alrededor de dos años.
{{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace )El control de crucero adaptado al tráfico está diseñado principalmente para conducir en carreteras rectas y secas, como autopistas y autovías. No debe utilizarse en calles de la ciudad.
Si bien Tesla informó explícitamente a los propietarios del Model S que el piloto automático solo debería usarse en carreteras de acceso limitado, no incorporó protecciones contra su uso en otros tipos de carreteras.
No utilice el sistema Autosteer en calles de la ciudad, en zonas de construcción o en áreas donde pueda haber ciclistas o peatones.
Los datos de rendimiento muestran que el Tesla siguió a varios vehículos líderes en tráfico pesado durante minutos antes del choque. Cuando el último vehículo líder cambió de carril (entre 3 y 4 segundos antes del choque), revelando que el camión de bomberos estaba en el camino del Tesla, el sistema no pudo detectar el peligro de inmediato y aceleró el Tesla hacia el camión parado. Para cuando el sistema detectó el vehículo parado y le dio al conductor una advertencia de colisión (0,49 segundos antes del impacto), la colisión era inminente y la advertencia llegó demasiado tarde, en particular para un conductor distraído.
{{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite press release}}
: Mantenimiento de CS1: otros ( enlace )24011.5(b): Un fabricante o distribuidor no deberá nombrar ninguna característica de automatización de conducción parcial, ni describir ninguna característica de automatización de conducción parcial en materiales de marketing, utilizando un lenguaje que implique o que de otro modo lleve a una persona razonable a creer que la característica permite que el vehículo funcione como un vehículo autónomo, como se define en la Sección 38750, o que de otro modo tiene una funcionalidad que no está realmente incluida en la característica. Una violación de esta subdivisión se considerará una publicidad engañosa a los efectos de la Sección 11713.
24011.5(c): Tal como se utiliza en esta sección, "característica de automatización de conducción parcial" tiene el mismo significado que "automatización de conducción parcial de nivel 2" en la Norma J3016 de la Sociedad de Ingenieros Automotrices (SAE) (abril de 2021).
URL directa