Tesla Autopilot es un sistema avanzado de asistencia al conductor (ADAS) desarrollado por Tesla que equivale a una automatización parcial del vehículo ( automatización de nivel 2 , según la definición de SAE International ). Tesla proporciona "Base Autopilot" en todos los vehículos, que incluye centrado de carril y control de crucero consciente del tráfico . Los propietarios pueden comprar o suscribirse a Full Self-Driving ( FSD ) que agrega navegación semiautónoma que responde a semáforos y señales de stop, asistencia para cambiar de carril , estacionamiento automático y la capacidad de llamar al automóvil desde un garaje o lugar de estacionamiento.
La intención declarada de la empresa es ofrecer conducción totalmente autónoma (SAE Nivel 5 ) en el futuro, reconociendo que se deben superar obstáculos técnicos y regulatorios para lograr este objetivo. [1] Los nombres Autopilot y Full Self-Driving son controvertidos, porque los vehículos permanecen en la automatización de Nivel 2 y, por lo tanto, no son "totalmente autónomos " y requieren la supervisión activa del conductor.
La empresa afirma que las funciones reducen los accidentes causados por la negligencia del conductor y la fatiga por la conducción a largo plazo. [2] [3] Las colisiones y muertes que involucraron automóviles Tesla con el piloto automático activado han llamado la atención de la prensa y las agencias gubernamentales. [4] Los observadores de la industria y los académicos han criticado la decisión de Tesla de utilizar consumidores no capacitados para validar las funciones beta como peligrosas e irresponsables. [5] [6] [7] [8]
Desde 2013, el director ejecutivo de Tesla, Elon Musk, ha hecho repetidamente predicciones inexactas sobre que Tesla alcanzaría la autonomía de Nivel 5 en un plazo de uno a tres años [9] , y la más reciente fue predecir el final de 2023. [10]
Elon Musk habló por primera vez del sistema Tesla Autopilot públicamente en 2013, señalando que "Autopilot es algo bueno para tener en los aviones, y deberíamos tenerlo en los automóviles". [11] Durante la década siguiente, Autopilot pasó por una serie de mejoras de hardware y software, acercándose gradualmente al objetivo de autonomía total, que, a enero de 2024 [update], sigue sin cumplirse. Autopilot, como se presentó inicialmente en 2014, se refería al estacionamiento automático y la convocatoria de baja velocidad en propiedad privada, [12] utilizando hardware de sensores y computación desarrollado por Mobileye. Para 2016, el Autopilot basado en Mobileye había agregado frenado automático de emergencia , control de crucero adaptativo y capacidades de centrado de carril [13] cuando Tesla y Mobileye disolvieron su asociación en julio. [14] Enhanced Autopilot (EA) se anunció más tarde en 2016 como una opción de costo adicional que usaba un nuevo conjunto de hardware desarrollado por Tesla; [15] La característica distintiva clave de EA, "Navegar en piloto automático", que utiliza el nuevo conjunto de hardware para guiar al vehículo en carreteras de acceso controlado , desde la rampa de entrada hasta la rampa de salida, se retrasó hasta 2018. [16] Al mismo tiempo que se introdujo EA, Tesla también ofreció Full Self-Driving (FSD) como una opción de actualización a EA en 2016, que ampliaría las capacidades de conducción guiada por máquina a las carreteras locales. [15] Las pruebas beta de FSD comenzaron en octubre de 2020. [17]
En octubre de 2014, Tesla ofreció a los clientes la posibilidad de comprar por adelantado el Autopilot [12] [18] [19] que no estaba diseñado para la conducción autónoma . [20] Las versiones iniciales se construyeron en asociación con Mobileye , [21] pero Mobileye finalizó la asociación en julio de 2016 porque Tesla "estaba superando los límites en términos de seguridad". [22] [23]
Los automóviles Tesla fabricados después de septiembre de 2014 tenían el hardware inicial (versión de hardware 1 o HW1) que admitía el piloto automático. [24] La primera versión del software del piloto automático se lanzó en octubre de 2015 como parte de la versión 7.0 del software de Tesla. [25] La versión 7.1 eliminó algunas funciones para desalentar la conducción arriesgada. [26]
La versión 8.0 procesó las señales de radar para crear una nube de puntos similar al lidar para ayudar a navegar en condiciones de baja visibilidad. [27] [28] En noviembre de 2016, se actualizó Autopilot 8.0 para alentar a los conductores a agarrar el volante. [29] [30] Para noviembre de 2016, Autopilot había operado durante 300 millones de millas (500 millones de kilómetros). [31]
En octubre de 2016, los sensores y el hardware informático de Autopilot pasaron a la versión de hardware 2 (HW2) para los automóviles nuevos, [32] el hardware actualizado se denominó colectivamente Autopilot 2.0 para distinguirlo de los vehículos Autopilot/HW1 originales. [33] En el momento de su lanzamiento, los vehículos Autopilot 2.0 con HW2 en realidad tenían menos funciones que los vehículos HW1; por ejemplo, los vehículos HW2 no pudieron ser convocados en 2016. [34] [35]
Tesla también usó el término Piloto Automático Mejorado (EA) para referirse a las capacidades planificadas que llegarían a los vehículos HW2; la característica distintiva de EA anunciada en diciembre de 2016 fue "Navegar en Piloto Automático", que permite la conducción controlada por máquina en autopistas de acceso controlado desde la rampa de entrada a la rampa de salida, incluidas las capacidades de cambiar de carril sin la intervención del conductor, la transición de una autopista a otra y la salida. [36] Los vehículos HW2 se actualizaron en enero y febrero de 2017 con la versión de software 8.0, que incluía control de crucero consciente del tráfico y dirección automática (centrado de carril) en autopistas divididas y "caminos locales" hasta una velocidad de 45 millas por hora (72 km/h). [37] [38] La versión 8.0 también puso más énfasis en el sistema de radar, para tratar de evitar problemas como el accidente fatal del Piloto Automático de 2016 en Florida. [39] La versión 8.1 del software para HW2 llegó en marzo de 2017, brindando a los autos HW2 la misma función que a los autos HW1, pero no la opción de "Navegación en piloto automático". [40]
En agosto de 2017, Tesla anunció la versión de hardware 2.5 (HW2.5), que mejoró el procesador de a bordo y agregó sistemas redundantes. [42] La versión de software 9.0 se lanzó en octubre de 2018, [43] en preparación para el lanzamiento de "Navigate on Autopilot" para vehículos HW2/HW2.5 con EA, que se implementó más tarde ese mes. [44] Al mismo tiempo, Tesla eliminó la opción de comprar la actualización "Full Self-Driving". [45] En una prueba de manejo de noviembre de 2018, el reportero de The Verge Andrew J. Hawkins llamó al sistema beta "Navigate on Autopilot" "la característica que podría darle a Tesla una ventaja a medida que crece de una empresa de nicho a una potencia global". [46] Como se lanzó inicialmente, "Navigate on Autopilot" sugeriría cambios de carril, pero no podría cambiar de carril hasta que el conductor hubiera confirmado la sugerencia a través de la palanca de la señal de giro. [47]
En marzo de 2019, Tesla realizó la transición a la versión de hardware 3 (HW3) para los autos nuevos. [48] Los cambios de carril completamente automatizados sin requerir la confirmación del conductor usando "Navegar en piloto automático" se agregaron como una opción en una actualización de software de abril, [49] aunque Consumer Reports lo calificó como "mucho menos competente" que un conductor humano. [50] Para cumplir con la nueva regulación de la Comisión Económica de las Naciones Unidas para Europa relacionada con la función de dirección comandada automáticamente , [51] Tesla proporcionó un piloto automático actualizado en mayo, limitado a Europa. [52] En septiembre, Tesla lanzó la versión 10 del software a los probadores del Programa de acceso anticipado (EAP), citando mejoras en la visualización de la conducción y los cambios automáticos de carril. [53]
En 2021, Tesla comenzó a dejar de usar radares para pasar a utilizar únicamente Tesla Vision. [54] En octubre de 2022, presentó su razonamiento, citando la "seguridad". [55]
Samsung fabrica el procesador para el hardware 4 (HW4) en un proceso de 7 nm. El sistema en un chip (SoC) personalizado se llama "FSD Computer 2". [56] La placa tiene 16 GB de RAM y 256 GB de almacenamiento, que son dos y cuatro veces la RAM y el almacenamiento del HW3, respectivamente. [57] Musk afirmó que las capacidades computacionales del HW4 son de tres a ocho veces más potentes que las del HW3. [58]
Tesla comenzó a enviar automóviles con HW4 en enero de 2023, comenzando con los renovados Model S y Model Y; [58] sin embargo, FSD no estaba disponible inicialmente. [59] Pasaron seis meses antes de que los automóviles basados en HW4 ejecutaran software basado en cámara. [58] [60] A pesar de la mayor resolución del sensor de imagen con los automóviles equipados con HW4, HW4 ejecuta el software FSD emulando HW3, incluida la reducción del tamaño de las imágenes de la cámara, ya que Tesla ha pospuesto la capacitación basada en las nuevas cámaras HW4. [61] [58] Musk declaró que la capacitación específica de HW4 de FSD comenzará después de que se termine el nuevo centro de datos en la Gigafábrica de Texas. [58]
Un desmontaje de un automóvil Model S y Model X HW4 en 2023 reveló que tenían hardware de radar de alta definición, pero el software no usaba radar. [62]
Musk anunció el Hardware 5 (HW5), que se llamará AI5, durante la reunión anual de Tesla el 13 de junio de 2024. [58] [63] Musk afirmó que su lanzamiento está previsto para enero de 2026 y será diez veces más potente que el HW4. [58] Musk también afirmó que utilizará hasta 800 vatios al procesar entornos complejos, frente a un máximo de 300 vatios para HW3 y HW4. [58]
En octubre de 2016, al mismo tiempo que el lanzamiento de HW2, [64] Tesla lanzó un video titulado "Full Self-Driving Hardware on All Teslas" [65] que afirmaba demostrar Full Self-Driving, el sistema diseñado para extender la conducción automatizada a las carreteras locales. [66] [67] (Elon Musk, el director ejecutivo, tuiteó un enlace a una versión más larga en noviembre de 2016. [68] ) En el video, la persona en el asiento del conductor no toca el volante ni los pedales durante la demostración. El video también muestra perspectivas de las cámaras del vehículo y el sistema de reconocimiento de imágenes. [69] Por sugerencia de Musk, la tarjeta de título dice "La persona en el asiento del conductor solo está allí por razones legales. No está haciendo nada. El auto se conduce solo". [70] Recibió el apodo de " Paint It Black ", en honor a la canción de los Rolling Stones de 1966 utilizada como banda sonora. [66]
En 2021, The New York Times entrevistó a antiguos empleados que ayudaron a producir el vídeo de 2016. [71] En la entrevista, afirmaron que el vehículo estaba siguiendo una ruta que había sido mapeada con cámaras de escaneo detallado, que es una tecnología que no estaba ni está disponible en los autos de producción de Tesla. Incluso con estos aumentos en su lugar, los conductores humanos tuvieron que intervenir para tomar el control, el vehículo supuestamente chocó "una barrera al costado de la carretera" en las instalaciones de Tesla durante la filmación, lo que requirió reparaciones en el vehículo, y el automóvil se estrelló contra una cerca cuando intentaba estacionarse automáticamente. [72] En enero de 2024, Bloomberg publicó una exposición basada en correos electrónicos internos de Tesla que revelaba que Musk supervisó personalmente la edición y posproducción del video. [73]
Motor Trend y Jalopnik compararon lo que Tesla había mostrado con el video engañoso que mostraba un camión Nikola One EV que en realidad funcionaba con la gravedad; [74] Jalopnik comentó que "[el video de Tesla] puede ser peor, porque este video se usó para sugerir engañosamente las capacidades de un sistema implementado en manos de personas reales y utilizado en vías públicas". [75] En junio de 2022, Ashok Elluswamy, director del software Autopilot, hizo una declaración durante una declaración tomada para una demanda civil presentada contra Tesla por la familia de un conductor que murió en 2018 después de que el Model X que conducía usando Autopilot se estrellara contra una barrera de concreto en Mountain View, California. Elluswamy afirmó que el video no tenía la intención original de "representar con precisión lo que estaba disponible para los clientes en 2016. Era para representar lo que era posible incorporar al sistema", mientras que el video final no tenía tal descargo de responsabilidad. [76] Un juez del circuito de Florida también señaló el video final como parte de la estrategia de marketing de Tesla al rechazar la moción de Tesla de desestimar una demanda por una muerte en 2019, y escribió que "en este video no hay ninguna indicación de que el video sea aspiracional o de que esta tecnología no exista actualmente en el mercado". [77]
En el momento en que se lanzó el video "Paint it Black" en 2016, se reconoció que FSD estaba "muy lejos en el futuro". [36] La opción para comprar la actualización de FSD a EA se eliminó del sitio web de Tesla en octubre de 2018; Elon Musk tuiteó que la actualización estaba "causando demasiada confusión". El analista de tecnología Rob Enderle calificó la eliminación de la opción de actualización como "increíblemente estúpida", y agregó "no lancen un sistema que no funciona y dificulte el pedido". [78] Durante una llamada de ganancias de enero de 2019, Elon Musk reiteró que "la capacidad de conducción autónoma completa está ahí", refiriéndose a "Navigate on Autopilot", una función de EA limitada a las autopistas de acceso controlado. [45] La opción EA fue reemplazada por FSD en 2019 sin ofrecer una funcionalidad similar a "Navigate on Autopilot" para carreteras locales; la dirección automática y el control de crucero consciente del tráfico se transfirieron al conjunto básico de funciones de piloto automático, que se hizo estándar en todos los nuevos Teslas. [79] [80]
En septiembre de 2020, Tesla reintrodujo el término Piloto automático mejorado para distinguir el subconjunto existente de funciones que incluían viajes en autopista a alta velocidad y estacionamiento y convocatoria a baja velocidad, del FSD, que agregaría viajes en carreteras urbanas a velocidad media. [81] Tesla lanzó una versión " beta " de su software FSD (que extendió la conducción y navegación controladas por máquina similar a "Navegar en piloto automático" a "carreteras locales") en los Estados Unidos en octubre de 2020 para los probadores de EAP. [82] [83] El nivel de opción EA se puso a disposición de todos los compradores en junio de 2022, [79] y la versión beta de FSD se había expandido a aproximadamente 160.000 probadores en los Estados Unidos y Canadá en septiembre. [84] En noviembre de 2022, la versión beta de FSD se extendió a todos los propietarios en América del Norte que habían comprado la opción. [85] En abril de 2024, FSD obtuvo la aprobación en China . [86]
En 2015, el piloto automático costaba 2.500 dólares en un Model S. En 2016, el piloto automático mejorado costaba 5.000 dólares y el FSD era un complemento por 3.000 dólares. [87] En abril de 2019, el piloto automático básico se incluyó en todos los coches Tesla, [88] y el FSD costaba 5.000 dólares, aumentando a 10.000 dólares en octubre de 2020 y a 15.000 dólares en septiembre de 2022. [89] A medida que aumentaba el precio del FSD, la fracción de compradores que lo adquirieron disminuyó de forma constante, de un 37% estimado en 2019 al 22% en 2020 y al 12% en 2021. [90] A partir de 2021, la empresa ofreció una suscripción al FSD por 199 dólares al mes o 99 dólares al mes si el cliente ya había comprado el piloto automático mejorado. [91] En septiembre de 2023, el precio de FSD se redujo a $12,000. [92] En abril de 2024, Tesla redujo el precio de suscripción de FSD a $99 por mes para nuevos usuarios o usuarios que ya habían comprado Enhanced Autopilot, [93] y redujo el precio de compra a $8,000. [94] La reducción del precio del servicio por parte de Tesla fue contraria a las declaraciones anteriores de Musk sobre cómo el precio de FSD seguiría aumentando, [95] y enfureció a los usuarios existentes de FSD que pagaban los precios más altos anteriormente. [96]
Las capacidades del producto Autopilot en el Reino Unido son diferentes a las disponibles en los Estados Unidos. El producto del Reino Unido es un conjunto que incluye tecnologías como ACC, LKA y AEB similares a las que están disponibles en otros vehículos europeos. [97]
EuroNCAP comparó el conjunto de sistemas ADAS del piloto automático del Tesla Model 3 con lo que está disponible en otros vehículos europeos. EuroNCAP hace comentarios sobre la difusión de información engañosa o confusa y sobre el riesgo de una confianza excesiva. [98]
El manual indica correctamente las limitaciones de las capacidades del sistema.
— EuroNCAP [98]
En China, la FSD se aprobó a fines de abril de 2024. [99]
En Australia, están disponibles el piloto automático básico y el piloto automático mejorado, mientras que el FSD no. El cambio de carril está disponible como parte del piloto automático mejorado. [100] En Australia, está disponible un servicio FSD que difiere del de la versión beta de EE. UU. Por ejemplo, es posible que girar en una calle de la ciudad no esté disponible en el FSD australiano de Tesla. [101] En Australia, el FSD de Tesla puede detenerse en las señales de stop. [102]
La capacidad de conducción autónoma completa (FSD) [103] es un paquete de actualización del piloto automático que ofrece funciones ADAS adicionales, como el reconocimiento de semáforos.
El enfoque de Tesla para intentar alcanzar el nivel 5 de SAE es entrenar una red neuronal utilizando el comportamiento de más de 6 millones de conductores de Tesla [104] [105] utilizando principalmente cámaras de luz visible y los mapas bidimensionales de grano grueso utilizados para la navegación. [106] [107] Tesla ha tomado la decisión deliberada de no utilizar lidar, al que Elon Musk ha llamado "estúpido, caro e innecesario". [108] Esto hace que el enfoque de Tesla sea marcadamente diferente al de otras empresas como Waymo y Cruise , que entrenan sus redes neuronales utilizando el comportamiento de un pequeño número de conductores altamente capacitados, [109] [110] y, además, confían en mapas tridimensionales altamente detallados (a escala de centímetros) y lidar en sus vehículos autónomos. [107] [111] [112] [113] [114]
Según Elon Musk, la autonomía total es "en realidad una limitación del software: el hardware existe para crear una autonomía total, por lo que se trata realmente de desarrollar una IA avanzada y limitada para que el automóvil pueda operar". [115] [116] El desarrollo del piloto automático se centra en "redes neuronales cada vez más sofisticadas que puedan operar en computadoras de tamaño razonable en el automóvil". [115] [116] Según Musk, "el automóvil aprenderá con el tiempo", incluso de otros automóviles. [117]
El software de Tesla ha sido entrenado en base a tres mil millones de millas recorridas por vehículos Tesla en vías públicas, a partir de abril de 2020. [update][ 118] [119] Junto con decenas de millones de millas en vías públicas, [120] los competidores han entrenado su software en decenas de miles de millones de millas en simulaciones por computadora, a partir de enero de 2020. [update][ 121] En términos de hardware informático, Tesla diseñó un chip de computadora de conducción autónoma que ha sido instalado en sus autos desde marzo de 2019 [122] y también diseñó y construyó internamente una supercomputadora de entrenamiento de redes neuronales ("Tesla Dojo"); [123] [124] otras compañías de automatización de vehículos como Waymo también usan regularmente conjuntos de chips y redes neuronales personalizados. [125] [126]
No creo que tengamos que preocuparnos por los coches autónomos porque son una forma limitada de inteligencia artificial. No creo que sea algo muy difícil. Hacer que la conducción autónoma sea mucho más segura que la de una persona es mucho más fácil de lo que la gente cree. [...] Casi lo veo como un problema resuelto.
— Elon Musk, discurso inaugural, conferencia de Nvidia (marzo de 2015) [127]
En diciembre de 2015, Musk predijo que la "autonomía completa" se implementaría para 2018. [128] A fines de 2016, Tesla esperaba demostrar la autonomía completa para fines de 2017, [129] [130] y en abril de 2017, Musk predijo que en alrededor de dos años, los conductores podrían dormir en su vehículo mientras este se conduce solo. [131] En 2018, Tesla revisó la fecha para demostrar la autonomía completa para fines de 2019. [132]
Creo que este año tendremos todas las funciones y conducción autónoma, lo que significa que el coche podrá encontrarte en un aparcamiento, recogerte y llevarte hasta tu destino sin intervención. Este año. Diría que estoy seguro de ello, no es una incógnita. Sin embargo, a veces la gente extrapola eso para decir que ahora funciona con un 100 % de certeza, sin necesidad de observación, perfectamente, pero no es así.
— Elon Musk, Podcast (febrero de 2019) [133] [134]
En 2019 [135] [136] y 2020 [137] , la página de pedidos de Tesla para "Capacidad total de conducción autónoma" decía:
En enero de 2020, Musk afirmó que el software FSD estaría "completo en funciones" para fines de 2020, y agregó que el hecho de que las funciones estén completas "no significa que las funciones estén funcionando bien". [138] En agosto de 2020, Musk declaró que 200 ingenieros de software, 100 ingenieros de hardware y 500 " etiquetadores " estaban trabajando en Autopilot y FSD. [139] A principios de 2021, Musk declaró que Tesla proporcionaría autonomía SAE Nivel 5 para fines de 2021. [140] [141] En una conferencia telefónica de marzo de 2021 entre Tesla y el Departamento de Vehículos Motorizados de California (DMV), el director del software Autopilot de Tesla reveló que los comentarios de Musk "no reflejaban la realidad de la ingeniería". Los detalles de la llamada se hicieron públicos a través de una solicitud de la Ley de Libertad de Información de PlainSite . [142] En una videollamada en una conferencia sobre IA de 2023 celebrada en Shanghái, Musk admitió que sus predicciones anteriores eran demasiado optimistas y predijo que Tesla finalmente realizaría vehículos completamente autónomos en algún momento "a finales de este año". [143]
Durante la reunión de inversores del primer trimestre de 2024, a principios de 2024, Musk anunció que revelaría un nuevo producto robotaxi en agosto. Según una investigación realizada por NBC News, a fecha de abril de 2024, Tesla aún no había solicitado los permisos a nivel estatal necesarios para operar vehículos autónomos en los EE. UU. [144]
En octubre de 2020, Tesla lanzó por primera vez una versión beta de su software FSD para los probadores del programa de acceso temprano, un pequeño grupo de usuarios en los Estados Unidos. [145] [82] [83] Musk afirmó que las pruebas de la versión beta de FSD "serán extremadamente lentas [y] cautelosas" y "se limitarán a un pequeño número de personas que sean conductores expertos [y] cuidadosos". [82] El lanzamiento del programa beta renovó la preocupación sobre si la tecnología está lista para ser probada en la vía pública. [146] [147] En enero de 2021, el número de empleados y clientes que probaron el software beta de FSD era "casi 1.000" [148] ampliándose en mayo de 2021 a varios miles de empleados y clientes. [149]
En octubre de 2021, Tesla comenzó el lanzamiento amplio de la versión beta de FSD a aproximadamente 1000 conductores más en los EE. UU., y la versión beta se volvió accesible para los conductores de Tesla que lograron un 100/100 en un sistema de puntuación de seguridad patentado. [150] Para noviembre de 2021, había alrededor de 11 700 probadores beta de FSD [151] y alrededor de 150 000 vehículos que usaban el sistema de puntuación de seguridad de Tesla, [152] que luego creció a 60 000 usuarios que participaban en la versión beta de FSD en enero de 2022, [153] y 100 000 usuarios en abril de 2022. [149] En noviembre de 2022, la versión beta de FSD se abrió a todos los propietarios de América del Norte que habían comprado la opción, independientemente de la puntuación de seguridad. [85] A febrero de 2023 [update], Tesla tiene alrededor de 360 000 participantes en la versión beta de FSD. [154]
En febrero de 2023, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) de EE. UU. retiró del mercado 362 758 vehículos equipados con la versión beta de FSD [155] y la empresa detuvo la incorporación de nuevos participantes [156] . En marzo de 2023, se lanzó la versión beta de FSD v11, que también fusionó el código del piloto automático con FSD, como solución a los problemas [157] . En julio de 2023, la NHTSA le pidió a Tesla que aclarara qué cambios se habían realizado y cuándo se implementaron [158] . Posteriormente, la NHTSA informó de 60 accidentes y una muerte relacionados con el uso de la versión beta de FSD durante el período comprendido entre agosto de 2022 y agosto de 2023 [159].
En agosto de 2023, Musk transmitió en vivo una demostración de 45 minutos de la próxima versión 12 de FSD, que afirmó que usa solo una red neuronal y no ningún código escrito por humanos . [160] Hubo una intervención manual: a mitad de camino, malinterpretó una flecha verde de giro a la izquierda como si permitiera el tráfico hacia adelante y casi se saltó la luz roja antes de que Musk interviniera. [160]
En marzo de 2024, la versión 12.3 de FSD comenzó a implementarse para un grupo inicial de clientes estadounidenses, con comentarios positivos. [161] [162] Posteriormente, Tesla anunció una prueba gratuita de un mes de FSD, [163] y Musk ordenó demostrar FSD a todos los posibles compradores en los EE. UU. [163] La versión 12.3.3 de FSD reemplazó oficialmente la palabra "beta" por "supervisada" en su nombre, [164] y, en abril de 2024, Tesla anunció que los usuarios habían recorrido más de mil millones de millas en FSD Beta. [95]
En mayo de 2024, los analistas de datos publicados por YipitData descubrieron que, de los casi 3.500 propietarios de Tesla que probaron FSD en abril de 2024, solo el 2% mantuvo sus suscripciones. [165]
Tesla Dojo es una supercomputadora diseñada desde cero por Tesla para el procesamiento y reconocimiento de video mediante visión artificial . Se utilizará para entrenar los modelos de aprendizaje automático de Tesla para mejorar la FSD.
Dojo fue mencionado por primera vez por Musk en abril de 2019 [166] [167] y agosto de 2020. [167] Musk lo anunció oficialmente en el Día de la IA de Tesla el 19 de agosto de 2021. [168] En septiembre de 2021, se publicó un informe técnico de Tesla Dojo. En agosto de 2023, Tesla dijo que comenzó el uso de producción de Dojo, configurado con 10,000 chips Nvidia. [169]
Dojo consta de varios gabinetes. Cada gabinete contiene múltiples mosaicos de entrenamiento dispuestos verticalmente. [170] Cada mosaico contiene múltiples chips de procesamiento D1 diseñados por Tesla con memoria asociada. [171] Según el director senior de hardware de piloto automático de Tesla, Ganesh Venkataramanan, "Tesla coloca 25 de estos chips en un solo 'mosaico de entrenamiento', y 120 de estos mosaicos se juntan... sumando más de un exaflop [un millón de teraflops] de potencia". [172] (A partir de agosto de 2021 [update], Nvidia declaró que el centro de entrenamiento de IA de Tesla anterior a Dojo usaba 720 nodos de ocho unidades de procesamiento gráfico (GPU) Nvidia A100 Tensor Core , 5760 GPU en total, para un rendimiento de hasta 1,8 exaflops. [173] ) En abril de 2024, Musk dijo que Tesla estaba usando 35.000 chips Nvidia H100 y estaba en camino de haber invertido 10.000 millones de dólares de forma acumulativa para finales de año para entrenar el modelo de red neuronal para FSD. [174]
La estrategia de conducción autónoma de Tesla ha sido criticada por peligrosa y obsoleta, ya que otras empresas la abandonaron hace años. [175] [176] [177] La mayoría de los expertos creen que el enfoque de Tesla de intentar lograr vehículos autónomos evitando los mapas de alta definición y el lidar no es factible. [178] [179] [180] El analista de automóviles Brad Templeton ha criticado el enfoque de Tesla argumentando que "el enfoque sin mapas implica olvidar lo aprendido antes y hacerlo todo de nuevo". [181] En un estudio de mayo de 2021 realizado por Guidehouse Insights, Tesla ocupó el último lugar tanto en estrategia como en ejecución en el sector de la conducción autónoma. [182] Algunos informes de noticias de 2019 afirman que "prácticamente todo el mundo ve [el lidar] como un ingrediente esencial para los coches de conducción autónoma" [183] y "los expertos y defensores dicen que añade profundidad y visión donde la cámara y el radar por sí solos se quedan cortos". [184]
Un estudio de agosto de 2021 realizado por Missy Cummings et al. descubrió que tres automóviles Tesla Model 3 exhibieron "una variación significativa entre vehículos y dentro de ellos en una serie de métricas relacionadas con el monitoreo del conductor, la alerta y el funcionamiento seguro de la autonomía subyacente... lo que sugiere que el rendimiento de los sistemas subyacentes de inteligencia artificial y visión por computadora fue extremadamente variable". [185]
En septiembre de 2021, los expertos legales William Widen y Philip Koopman argumentaron que la publicidad de Tesla del FSD como un sistema SAE Nivel 2 era engañosa para "evitar la supervisión regulatoria y los procesos de permisos requeridos para vehículos más altamente automatizados". [186] En cambio, argumentaron que el FSD debería considerarse una tecnología SAE Nivel 4 e instaron a los Departamentos de Transporte estatales en los EE. UU. a clasificarlo como tal, ya que los videos disponibles públicamente muestran que "los conductores de prueba beta operan sus vehículos como para validar las características SAE Nivel 4 (alta automatización de la conducción), a menudo revelando situaciones dramáticamente riesgosas creadas por el uso de los vehículos de esta manera". [186]
El piloto automático de Tesla está clasificado como Nivel 2 bajo los seis niveles SAE (0 a 5) de automatización del vehículo . [187] En este nivel, el automóvil puede actuar de forma autónoma, pero requiere que el conductor controle la conducción en todo momento y esté preparado para tomar el control en cualquier momento. [188] [189] El manual del propietario de Tesla establece que el piloto automático no debe usarse en calles de la ciudad o en carreteras donde las condiciones del tráfico cambian constantemente; [190] [191] [192] sin embargo, algunas capacidades FSD ("control de tráfico y señales de stop (beta)") y futuras capacidades FSD ("autodirección en calles de la ciudad") se anuncian para calles de la ciudad. [193]
En abril de 2016, Elon Musk declaró que la probabilidad de un accidente era al menos un 50% menor al usar el piloto automático sin citar ninguna referencia. En ese momento, se estimó que, en conjunto, los Tesla habían sido conducidos durante 47 millones de millas en modo piloto automático. [207] Después del primer accidente fatal ampliamente publicitado con piloto automático en mayo de 2016 que ocurrió en Williston, Florida , Tesla reconoció la muerte y publicó un blog en junio, comparando la tasa de mortalidad promedio en los Estados Unidos (en ese momento, una por cada 94 millones de millas) y en todo el mundo (una por cada 60 millones de millas) con la del piloto automático de Tesla (una por cada 130 millones de millas); [208] Tesla declaró en julio que "los clientes que usan el piloto automático están estadísticamente más seguros que los que no lo usan en absoluto", "el sistema [piloto automático] proporcionó un beneficio neto de seguridad a la sociedad" y "el umbral 'mejor que el humano' se había cruzado y se había validado sólidamente internamente". [209] El enfoque estadístico de Tesla fue criticado por comparar dos conjuntos de datos diferentes; Si bien el piloto automático se limita a la conducción en carretera, la tasa de mortalidad general en los Estados Unidos incluye condiciones de conducción más variadas. Además, los vehículos de Tesla eran más grandes y más caros que la mayoría de los vehículos en la carretera, lo que los hacía generalmente más seguros en caso de accidente. [210] Otros factores que podrían haber afectado a los datos incluyen las condiciones climáticas y la demografía de los propietarios de Tesla. [211]
Fortune criticó la venta de 2.000 millones de dólares en acciones de Tesla, y señaló que la venta se produjo menos de dos semanas después de informar "inmediatamente" a la NHTSA del accidente fatal de principios de mayo, pero antes de que Tesla publicara su reconocimiento público del accidente a finales de junio; el artículo afirmaba que "Tesla y Musk no revelaron el hecho muy importante de que un hombre había muerto mientras usaba una tecnología de piloto automático que Tesla había comercializado vigorosamente como segura e importante para sus clientes". Musk respondió al artículo con un argumento estadístico en un correo electrónico al periodista, diciendo "De hecho, si alguien se molestara en hacer los cálculos (obviamente, usted no lo hizo) se daría cuenta de que de las más de 1 millón de muertes automovilísticas por año en todo el mundo, aproximadamente medio millón de personas se habrían salvado si el piloto automático de Tesla estuviera universalmente disponible. Por favor, tómese 5 minutos y haga los malditos cálculos antes de escribir un artículo que engañe al público". [212]
Tras el accidente de Williston, la NHTSA publicó un informe preliminar en enero de 2017 en el que se afirmaba que "la tasa de accidentes de los vehículos Tesla se redujo en casi un 40 por ciento después de la instalación de Autosteer". [213] [214] : 10 La NHTSA no publicó los datos hasta noviembre de 2018. Una empresa privada, Quality Control Systems, publicó un informe en febrero de 2019 analizando los mismos datos, afirmando que la conclusión de la NHTSA "no estaba bien fundada". [215] Parte de la verificación de datos incluyó el escrutinio de los 43.781 vehículos que la NHTSA afirmó que tenían Autosteer instalado; de ellos, solo 5.714 tenían una lectura exacta del odómetro en el momento en que se instaló Autosteer y datos de despliegue del airbag; En conjunto, los datos de esos 5.714 vehículos mostraron 32 despliegues de bolsas de aire en las 42.001.217 millas (67.594.407 km) recorridas antes de la instalación, y 64 despliegues de bolsas de aire en las 52.842.182 millas (85.041.249 km) posteriores. [216] Eso significa que la tasa de accidentes, medida por la tasa de despliegues de bolsas de aire por millón de millas de viaje, en realidad aumentó de 0,76 a 1,21 después de la instalación de Autosteer, [217] : 9 un aumento del 59%. [216]
A partir de 2018, Tesla comenzó a publicar estadísticas de seguridad trimestralmente [218] , utilizando los valores para demostrar la disminución de las tasas de accidentes durante el uso del piloto automático [219] . Los datos han sido difíciles de interpretar, ya que no están disponibles los recuentos de accidentes reales, el kilometraje de referencia y la definición básica de un accidente [220] . Debido a esta falta de informes precisos, Green Car Reports señaló que "si bien estos números actualizados para el piloto automático son alentadores, está claro que las afirmaciones de Tesla sobre su seguridad enormemente superior, al menos en términos de accidentes fatales, todavía son vapor. Es demasiado pronto para llegar a conclusiones firmes sobre la seguridad del piloto automático ". [219]
En febrero de 2020, Andrej Karpathy, jefe de IA y visión artificial de Tesla, afirmó que los coches Tesla han recorrido 3.000 millones de millas con piloto automático, de las cuales 1.000 millones se han recorrido utilizando Navigate en piloto automático; los coches Tesla han realizado 200.000 cambios de carril automatizados; y se han iniciado 1,2 millones de sesiones de Smart Summon con coches Tesla. [221] También afirmó que los coches Tesla están evitando accidentes de peatones a un ritmo de decenas a cientos por día. [222] La empresa dejó de publicar estadísticas de seguridad en 2022, pero lo reanudó en enero de 2023. [223] Las primeras estadísticas de seguridad comparables utilizando Full Self-Driving se publicaron en marzo de 2023; Tesla afirmó que los vehículos que operaban bajo FSD experimentaron un choque que desplegó el airbag aproximadamente cada 3,2 millones de millas, en comparación con todos los choques con despliegue del airbag notificados a la policía, que ocurren aproximadamente cada 0,6 millones de millas. [224]
Además, un análisis estadístico publicado por primera vez como preimpresión en 2021 [220] y en su forma final en 2023 [225] criticó los datos de tasa de accidentes autoinformados de Tesla, ya que no tenían en cuenta la demografía de los propietarios de los vehículos ni los tipos de carreteras en las que se operaba el Autopilot. [220] : 3 Si bien la tasa de accidentes de referencia del gobierno utilizada como comparación se basó en vehículos de todas las edades, que operaban en carreteras que iban desde autopistas, caminos rurales y calles de la ciudad, los vehículos Tesla son relativamente más nuevos y el Autopilot se limita a las operaciones en autopistas y carreteras. [218] Cuando se ajustó en función de la edad del conductor y el tipo de carretera, se descubrió que las tasas de accidentes del Autopilot eran casi las mismas que si se usaran solo "funciones de seguridad activa". [220] : Fig.4
Un estudio del MIT publicado en septiembre de 2021 concluyó que el piloto automático no es tan seguro como afirma Tesla y provocó que los conductores perdieran la atención. [226] [227]
Después de que la versión 7.0 del software de Tesla fuera lanzada en octubre de 2015 y Tesla afirmara que el Autopilot "[aliviaría] a los conductores de los aspectos más tediosos y potencialmente peligrosos de los viajes por carretera", [228] los primeros accidentes fatales que involucraron al Autopilot ocurrieron menos de un año después, en China (enero de 2016) [229] y los Estados Unidos (mayo de 2016). [230] Tesla declaró que había informado inmediatamente a la NHTSA sobre el accidente estadounidense en mayo, pero la NHTSA no lo anunció hasta el 30 de junio de 2016, cuando se informó ampliamente como la primera fatalidad relacionada con el Autopilot; [231] la muerte en China no se informó en los EE. UU. hasta ese septiembre, [229] y Tesla declaró que el daño le impidió confirmar si el Autopilot estaba activado. [232]
La primera muerte por piloto automático en EE. UU. ocurrió después de que el Tesla chocara contra el costado de un camión semirremolque y pasara por debajo del remolque de ese vehículo, cortando el invernadero . Después de la fatalidad, Tesla declaró que el piloto automático no reconoció el remolque blanco contra un cielo brillante. [233] Musk informó que las mejoras en el piloto automático en septiembre de 2016 "harían un uso mucho más efectivo del radar" y "muy probablemente" habrían evitado el accidente fatal. [234] A pesar de estas mejoras, el cambio a una plataforma de hardware diferente y actualizaciones adicionales al piloto automático, otro accidente fatal en mayo de 2019 ocurrió cuando un Tesla volvió a pasar por debajo del costado de un remolque. [235] Cinco años después de las primeras muertes, en 2021, Tesla comenzó la transición a "Tesla Vision" al eliminar el radar de los nuevos vehículos Model 3 e Y; [236] en 2023, The Washington Post informó que Musk había presionado por un enfoque de solo cámara a pesar de las objeciones de los ingenieros de Tesla. [237]
Hasta abril de 2024 [update], se han verificado cuarenta y cuatro muertes relacionadas con la función de piloto automático de Tesla, aunque siguen pendientes otros incidentes mortales relacionados con el presunto uso del piloto automático. [238] Muchos de estos incidentes han recibido distintos grados de atención por parte de las publicaciones de noticias. Además, la NHTSA citó cientos de accidentes no mortales en documentos oficiales. [239] Además de no reconocer el lateral de un remolque, los accidentes relacionados con el piloto automático se han atribuido a la distracción del conductor, [240] la incapacidad de detectar vehículos de emergencia estacionados, [241] y el uso indebido fuera del dominio de diseño operativo establecido de "autopistas de acceso controlado [...] con un divisor central, marcas claras en los carriles y sin tráfico cruzado". [242]
La Junta Nacional de Seguridad del Transporte (NTSB) criticó la falta de salvaguardas del sistema de Tesla en un accidente fatal de 2018 con el piloto automático en California, [243] y por no prever ni prevenir el "abuso predecible" del piloto automático. [244] [245] Tras esta crítica colectiva en medio de un mayor escrutinio regulatorio de los sistemas ADAS, especialmente el piloto automático de Tesla, [246] en junio de 2021, la NHTSA anunció una orden que exige a los fabricantes de automóviles que informen sobre los accidentes que involucran vehículos equipados con funciones ADAS en los Estados Unidos. [247] En abril de 2024, la NHTSA publicó los resultados de una investigación de 3 años de 956 colisiones de vehículos en las que se pensó que se había utilizado el piloto automático de Tesla, que encontró que el sistema había contribuido a al menos 467 colisiones, incluidas 13 que resultaron en muertes. [248]
Musk declaró en octubre de 2015 que "estamos aconsejando a los conductores que mantengan las manos en el volante [cuando el piloto automático está activado]". A pesar de esto, se publicaron varios videos en YouTube en ese momento que mostraban a los conductores usando el piloto automático para conducir con manos libres, incluida la ex esposa de Musk, Talulah Riley . [249] Se ha encontrado a otros conductores durmiendo al volante, conduciendo bajo los efectos del alcohol y realizando otras tareas inapropiadas con el piloto automático activado. [250] [251] Como se lanzó inicialmente, el sistema de piloto automático usa un sensor de torque para detectar si las manos del conductor estaban en el volante [252] [253] y da advertencias audibles y visuales para que el conductor tome el volante cuando no se detecta torque, pero varios propietarios confirmaron que podían conducir durante varios minutos con manos libres antes de recibir una advertencia. [249] La NHTSA ordenó que en 2018 se discontinuaran las ventas de al menos un dispositivo diseñado para vencer al sensor de torsión . [254] Inicialmente, Tesla decidió no agregar opciones de monitoreo del conductor más avanzadas para garantizar que los conductores permanecieran comprometidos con la tarea de conducir. [255]
A fines de mayo de 2021, una nueva versión del software habilitó las cámaras orientadas al conductor dentro de los nuevos Model 3 y Model Y (es decir, los primeros autos como parte del cambio a Tesla Vision) para monitorear la atención del conductor mientras usa Autopilot. [256] Los autos Model S y Model X fabricados antes de 2021 no tienen una cámara interior y, por lo tanto, físicamente no pueden ofrecer tales capacidades, aunque se espera que las versiones renovadas tengan una. [257] Una revisión del sistema de monitoreo basado en cámara en la cabina realizada por Consumer Reports encontró que los conductores aún podían usar Autopilot incluso cuando miraban hacia otro lado de la carretera o usaban sus teléfonos, y también podían habilitar el software beta FSD "con la cámara cubierta". [258]
En 2022, Musk aceptó una propuesta en Twitter de que "los usuarios con más de 10,000 millas en FSD Beta deberían tener la opción de apagar el aviso del volante", [259] diciendo que el sistema se actualizaría en enero de 2023. [260] [261] En abril, Musk confirmó que el aviso se estaba reduciendo gradualmente. [262] Ese junio, un pirata informático descubrió que FSD Beta tenía un modo no documentado que deshabilita todo monitoreo del conductor. [263] La NHTSA escribió una carta a Tesla bajo la autoridad de EA 22-002 el 26 de julio, señalando que el nuevo modo "podría provocar una mayor falta de atención del conductor y la falla del conductor para supervisar adecuadamente el piloto automático". La carta estaba adjunta a una Orden Especial solicitando cuándo se actualizaba el software con el modo oculto, los pasos detallados o las condiciones requeridas para desbloquear ese modo y las razones por las que Tesla emitió las actualizaciones. [264] Tesla respondió el 25 de agosto; [265] La respuesta se consideró confidencial y no hay una versión pública disponible. [266]
Un módulo de "eliminación de molestias" vendido como accesorio de posventa ajusta automáticamente el volumen desde el volante, que se registra como entrada del volante, lo que permite a los conductores quitar las manos del volante. La evidencia anecdótica ha demostrado que el módulo es efectivo solo para los vehículos Tesla vendidos en los Estados Unidos y Canadá, lo que lleva a la especulación de que el software de monitoreo del conductor es diferente según la región. [267]
Es posible que el piloto automático no detecte vehículos detenidos; el manual indica: "El control de crucero adaptado al tráfico no puede detectar todos los objetos y puede que no frene o desacelere en el caso de vehículos detenidos, especialmente en situaciones en las que usted conduce a más de 50 mph (80 km/h) y un vehículo que está siguiendo se sale de su trayectoria de conducción y, en su lugar, hay un vehículo u objeto detenido frente a usted". [268] Esto ha provocado numerosos accidentes con vehículos de emergencia detenidos. [269] [270] [271] [272]
En una encuesta de Bloomberg de 2019, cientos de propietarios de Tesla informaron comportamientos peligrosos con el piloto automático, como frenadas fantasma, desviaciones fuera del carril o no detenerse ante peligros en la carretera. [273] Los usuarios del piloto automático también han informado de fallas y apagados repentinos del software, colisiones con barreras de salida, fallas del radar, virajes inesperados, seguir de cerca a otros vehículos y cambios de velocidad desiguales. [274]
Ars Technica señala que el sistema de frenos tiende a activarse más tarde de lo que algunos conductores esperan. [275] Un conductor afirmó que el piloto automático de Tesla no frenó, lo que provocó colisiones, pero Tesla señaló que el conductor desactivó el control de crucero del automóvil antes del choque. [276] El sistema de frenado automático de emergencia (AEB) también se activa antes de lo que algunos conductores esperan debido a un error de software, lo que provocó un retiro del mercado en 2021 por activación falsa del sistema AEB. [277]
Ars Technica también señaló que, si bien los cambios de carril pueden ser semiautomáticos (si el piloto automático está activado y el vehículo detecta automóviles que se mueven lentamente o si se le exige que permanezca en la ruta, el automóvil puede cambiar de carril automáticamente sin ninguna intervención del conductor), el conductor debe mostrarle al automóvil que está prestando atención tocando el volante antes de que el automóvil realice el cambio. [278] En 2019, Consumer Reports señaló que la función de cambio de carril automático de Tesla es "mucho menos competente que un conductor humano". [279]
La mayoría de los vehículos de modelos recientes, incluidos los Tesla, están equipados con grabadoras de datos de eventos que recopilan aproximadamente cinco segundos de datos para ayudar en las investigaciones de accidentes, incluidos la velocidad, la aceleración, el uso de los frenos, la entrada de la dirección y el estado de las funciones de asistencia al conductor; los vehículos Tesla registran permanentemente estos datos como archivos de "registro de puerta de enlace" en una tarjeta microSD en la unidad de control de medios, a una velocidad de aproximadamente 5 veces por segundo ( hercios o Hz). Los archivos de registro de puerta de enlace se cargan en Tesla cuando el vehículo se conecta a una red Wi-Fi. [280]
La computadora del piloto automático almacena imágenes (para todos los vehículos) y videos (para vehículos del año modelo 2016 y posteriores) junto con datos de conducción similares a los capturados en archivos de registro de la puerta de enlace a una resolución temporal más alta (hasta 50 Hz) y los carga a Tesla periódicamente. Estas "instantáneas" se eliminan localmente después de ser cargadas. Tesla ha guardado silencio sobre sus políticas de retención de datos. [280] Los datos de las instantáneas siempre se capturan cuando el vehículo choca (definido como el despliegue de los airbags) y se cargan a través de una red celular 4G . [280] A veces, también se capturan instantáneas para otros eventos definidos por Tesla.
Incluso cuando el piloto automático no proporciona activamente controles de dirección, aceleración y freno, los modelos Tesla de 2016 y posteriores operan el piloto automático en "modo sombra". [281] Cuando las entradas de control generadas por el piloto automático en modo sombra no coinciden con las del conductor humano, el vehículo puede grabar una instantánea para ayudar a entrenar el sistema, después de lo cual el equipo del piloto automático puede revisar los datos. [282] Como explicó Karpathy, Tesla puede implementar "detectores" de software adicionales activados por situaciones específicas identificadas por datos de instantáneas, que luego cargan la cámara y otros datos a Tesla cuando se detectan situaciones similares. Estos datos se utilizan para revisar los detectores existentes. [282]
En el caso de los Tesla fabricados después de mediados de 2017, la computadora del piloto automático también registra datos de "ruta", incluida la ruta del automóvil determinada por las "migas de pan" del GPS durante todo el viaje. Un viaje comienza cuando el vehículo cambia de Estacionamiento a Conducir y termina cuando cambia nuevamente a Estacionamiento. Los datos de la ruta también incluyen la velocidad del vehículo, el tipo de carretera utilizada y el estado del piloto automático. Al igual que las instantáneas, estos datos de la ruta se eliminan localmente después de ser cargados en Tesla. [280] Los datos de la ruta están destinados a ser anonimizados eliminando el número de identificación del vehículo (VIN) y asignando un identificador temporal, pero el mismo identificador temporal se puede asignar a un solo vehículo durante varias semanas. [283]
Según las políticas de privacidad de Tesla, [284] la empresa no vende datos de clientes ni de vehículos, pero puede compartirlos con entidades gubernamentales. [283] La Fundación Mozilla clasificó a Tesla como la peor de 25 marcas de automóviles, recibiendo puntuaciones por debajo del estándar en todos los criterios de privacidad y seguridad de la fundación. [285] [286]
Tesla Vision se apoya en el "equipo de etiquetado del piloto automático", [287] que visualiza breves clips de vídeo grabados por las cámaras de los vehículos y enviados a Tesla, y que etiquetan señales y objetos visibles, entrenando al intérprete de visión artificial. [237] [288]
El etiquetado de datos fue manejado primero por una empresa de outsourcing sin fines de lucro llamada Samasource , que inicialmente proporcionó 20 trabajadores en Nairobi , Kenia. [289] El equipo de Nairobi creció a 400 trabajadores en 2016, pero Karpathy declaró más tarde que la "calidad [de su trabajo] no era sorprendente" y Tesla comenzó a contratar empleados para el etiquetado de datos en San Mateo, California . [289]
En abril de 2023, se reveló que los empleados de etiquetado de San Mateo habían compartido clips internamente entre ellos, incluidas grabaciones de áreas de propiedad privada como garajes, así como accidentes, incidentes de furia al volante y videos de memes anotados con "subtítulos o comentarios divertidos". Los ex empleados de Tesla describieron el ambiente de la oficina de San Mateo como "libre" y señalaron que "las personas que fueron promovidas a puestos de liderazgo compartieron muchos de estos [clips] divertidos y ganaron notoriedad por ser divertidas". En un caso, el accesorio sumergible Lotus Esprit que aparece en la película de James Bond La espía que me amó , que había sido comprado por Elon Musk en 2013 y almacenado en su garaje, fue grabado y compartido por miembros del equipo de etiquetado. Debido a que compartir estos clips era aparentemente para entretenimiento y no estaba relacionado con el entrenamiento del piloto automático, Carlo Plitz, un abogado de privacidad de datos, señaló que "sería difícil encontrar una justificación legal" para hacerlo. [289] Después del cierre de la oficina de San Mateo en junio de 2022, el equipo de etiquetado se trasladó a Buffalo, Nueva York , [288] donde Tesla tiene un total de 675 empleados, cientos de los cuales son etiquetadores. [289]
En 2015, un portavoz de la NHTSA dijo que "cualquier vehículo autónomo tendría que cumplir con los estándares federales de seguridad de vehículos motorizados aplicables" y que la NHTSA "tendrá las políticas y regulaciones apropiadas para garantizar la seguridad de este tipo de vehículos". [290] El 1 de febrero de 2021, Robert Sumwalt , presidente de la NTSB, escribió una carta a la NHTSA con respecto al "Marco para la seguridad del sistema de conducción automatizada" de esa agencia, que se había publicado para comentarios en diciembre de 2020. [291] [292] [293] En la carta, Sumwalt recomendó que la NHTSA incluyera la monitorización del usuario como parte del marco de seguridad y reiteró que "la falta de salvaguardas apropiadas por parte de Tesla y la inacción de la NHTSA" para actuar según la recomendación de la NTSB "de que la NHTSA desarrolle un método para verificar que los fabricantes de vehículos equipados con Nivel 2 incorporen salvaguardas del sistema que limiten el uso de sistemas de control de vehículos automatizados a las condiciones para las que fueron diseñados" fue una causa que contribuyó a un accidente fatal de un vehículo en Delray Beach, Florida, en 2019. [292] : 7
El 29 de junio de 2021, la NHTSA anunció la Orden General Permanente (SGO) 2021-01. Según esta Orden General, los fabricantes y operadores de vehículos equipados con sistemas avanzados de asistencia al conductor (ADAS, SAE J3016 Nivel 2) o sistemas de conducción automatizada (ADS, SAE Nivel 3 o superior) deben informar los accidentes. [247] Se emitió una orden enmendada que entró en vigencia el 12 de agosto de 2021. [294] Los informes se limitan a los accidentes en los que el ADAS o ADS se activó dentro de los 30 segundos anteriores al accidente que involucran una lesión que requiere hospitalización, una fatalidad, un vehículo que se remolca desde la escena, un despliegue de bolsa de aire o que involucra a un "usuario vulnerable de la carretera" (por ejemplo, peatón o ciclista); estos accidentes deben informarse a la NHTSA dentro de un día calendario, y se requiere un informe actualizado dentro de los 10 días calendario. [295] : 13–14 El 16 de agosto de 2021, después de informes de 17 heridos y una muerte en accidentes automovilísticos que involucraron vehículos de emergencia, los reguladores de seguridad automotriz de EE. UU. abrieron una investigación de seguridad formal (PE 21-020) sobre el sistema de asistencia al conductor Autopilot de Tesla. [296]
Los datos iniciales de SGO 2021-01 se publicaron en junio de 2022; 12 fabricantes informaron 392 accidentes que involucraron ADAS (nivel 2) entre julio de 2021 y el 15 de mayo de 2022. De esos 392 accidentes, 273 fueron vehículos Tesla, de aproximadamente 830.000 vehículos Tesla equipados con ADAS. Honda tuvo el siguiente total más alto, con 90 accidentes reportados de aproximadamente 6 millones de vehículos Honda equipados con ADAS. [297] La NHTSA dijo que las cifras de Tesla pueden parecer altas porque tiene informes de accidentes en tiempo real, mientras que otros fabricantes de automóviles no los tienen, por lo que sus informes de accidentes pueden entregarse más lentamente o no informarse en absoluto. [298] En conjunto, cinco personas murieron y seis más resultaron gravemente heridas en los 392 accidentes de ADAS que se informaron. [297] Según datos actualizados, hasta junio de 2023, los conductores de Tesla que utilizan el piloto automático habían estado involucrados en 736 accidentes y 17 muertes en total desde 2019; se habían producido 11 muertes desde mayo de 2022. [299] [300]
La SGO 2021-01 también se aplicó a los fabricantes de vehículos equipados con ADS (niveles 3 a 5); 25 fabricantes de ADS informaron 130 accidentes en total desde la publicación de datos inicial en junio de 2022, encabezados por Waymo (62), Transdev Alternative Services (34) y Cruise LLC (23). En la mayoría de los casos, estos accidentes implicaron que el vehículo con ADS fue golpeado por detrás; solo se informó de una lesión grave y 108 de los 130 accidentes no resultaron en lesiones. [297]
El Autopilot de Tesla fue objeto de una demanda colectiva interpuesta en 2017 en la que se afirmaba que el sistema Enhanced Autopilot de segunda generación era "peligrosamente defectuoso". [301] La demanda se resolvió en 2018; los propietarios que en 2016 y 2017 pagaron 5.000 dólares (equivalentes a 6.348 dólares en 2023) para equipar sus coches con el software actualizado del Autopilot recibieron una compensación de entre 20 y 280 dólares por el retraso en la implementación del Autopilot 2.0. [302]
En 2020, un tribunal alemán dictaminó en una demanda interpuesta en 2019 por el Centro para la Lucha contra la Competencia Desleal
que Tesla había violado las regulaciones publicitarias con su comercialización de Autopilot. [303] [304] [305] Tras la apelación, esa decisión fue revocada en 2021 por un tribunal superior con la condición de que Tesla aclarara las capacidades de Autopilot en su sitio web. [306] [307]En julio de 2022, un tribunal alemán otorgó a una demandante la mayor parte de los 112.000 euros que había pagado por un Model X, basándose en parte en un informe técnico que demostraba que el Autopilot no reconocía de forma fiable los obstáculos y activaba innecesariamente sus frenos, lo que podría causar un "peligro masivo" en las ciudades; los abogados de Tesla argumentaron sin éxito que el Autopilot no estaba diseñado para el tráfico urbano. [308]
En septiembre de 2022, se presentó una demanda colectiva en el Tribunal de Distrito de los EE. UU. (Norte de California) en la que se alegaba que "durante años, Tesla ha comercializado de manera engañosa y confusa su tecnología ADAS como tecnología de conducción autónoma con varios nombres, incluidos 'Piloto automático', 'Piloto automático mejorado' y 'Capacidad total de conducción autónoma ' ", y se agregó que Tesla manifestó "que estaba perpetuamente a punto de perfeccionar esa tecnología y finalmente cumplir su promesa de producir un automóvil completamente autónomo", mientras que "Tesla sabía desde hacía años que sus declaraciones sobre su tecnología ADAS eran engañosas y confusas, pero la empresa las hizo de todos modos". [309] [310] Tesla presentó una moción en noviembre de 2022 para desestimar el caso, defendiendo las acciones de la empresa como "un mero fracaso en la realización de un objetivo aspiracional a largo plazo [de un automóvil completamente autónomo] [y] no un fraude", basando la moción en la cláusula de arbitraje privado en el contrato de compra firmado por cada comprador. [311] [312]
A finales de febrero de 2023, los accionistas de Tesla presentaron una segunda demanda colectiva en el mismo tribunal. [313] La demanda alega que los acusados "habían exagerado significativamente la eficacia, viabilidad y seguridad de las tecnologías de piloto automático y FSD [de Tesla]" y que esos mismos sistemas "crearon un grave riesgo de accidente y lesiones", lo que "sometió a Tesla a un mayor riesgo de escrutinio regulatorio y gubernamental y de acción de cumplimiento", vinculando múltiples accidentes específicos a disminuciones documentadas en los precios de las acciones. [314]
En abril de 2023, Tesla fue declarada inocente en una demanda presentada en 2020 por una conductora que demandó por daños y perjuicios después de afirmar que el sistema Autopilot guió su Tesla Model S hacia una acera, lo que provocó el despliegue de una bolsa de aire y lesiones faciales. [315] Los jurados explicaron en entrevistas posteriores al juicio que "Autopilot nunca confesó ser un piloto automático. No es un coche que se conduce solo... [Tesla] se mantuvo firme en que el conductor debe estar siempre atento". [316]
Los herederos de dos conductores que murieron en 2019 mientras utilizaban el piloto automático presentaron demandas adicionales, una en California y otra en Florida. En el caso de California, que no se había informado anteriormente, Tesla argumentó que el conductor había consumido alcohol y no está claro que el piloto automático estuviera activado; [317] los abogados del demandante alegaron que un defecto conocido en el sistema del piloto automático había hecho que el vehículo se desviara de una autopista a 65 mph (105 km/h) y chocara contra una palmera. [318] Tesla prevaleció en ese caso, y el jurado votó 9 a 3 en octubre de 2023 que no había ningún defecto de fabricación. [319] En el caso de Florida, el juez rechazó la moción de desestimación de Tesla, concluyendo que no podía "imaginar cómo algunos consumidores comunes no tendrían alguna creencia de que los vehículos Tesla eran capaces de conducirse por sí mismos sin usar las manos", [320] citando "pruebas razonables" que demostraban que Tesla había "adoptado una estrategia de marketing que presentaba los productos como autónomos" y que las declaraciones de Musk "tuvieron un efecto significativo en la creencia sobre las capacidades de los productos". [77]
No creo que se deba llamar a algo, por ejemplo, piloto automático, cuando la letra pequeña dice que debes tener las manos en el volante y los ojos en la carretera en todo momento.
— Pete Buttigieg , Secretario de Transporte de Estados Unidos , entrevista con Associated Press , mayo de 2023 [321]
El Centro para la Seguridad Automotriz y el Organismo de Vigilancia del Consumidor escribieron a la Comisión Federal de Comercio (FTC) en 2018, pidiéndoles que abrieran una investigación sobre la comercialización de Autopilot. La carta afirmaba que "las prácticas de marketing y publicidad de Tesla, combinadas con las declaraciones públicas de Elon Musk, han hecho que sea razonable que los propietarios de Tesla crean, y actúen en consecuencia, que un Tesla con Autopilot es un vehículo autónomo capaz de 'conducirse solo ' ". [322] Los grupos renovaron su apelación a la FTC y agregaron el DMV de California en 2019, [323] señalando que "Tesla sigue siendo el único fabricante de automóviles que describe sus vehículos de Nivel 2 como 'autoconducidos' y el nombre de su conjunto de funciones de asistencia al conductor, Autopilot, connota autonomía total". [324] Los senadores estadounidenses Ed Markey (D-MA) y Richard Blumenthal (D-CT) se hicieron eco de estas preocupaciones ante la FTC en 2021. [325]
Un estudio del IIHS de 2019 mostró que el nombre "Autopilot" hace que más conductores perciban erróneamente que comportamientos como enviar mensajes de texto o tomar una siesta son seguros, en comparación con sistemas de asistencia al conductor de nivel 2 similares de otras compañías automotrices. [326] En 2020, los expertos en seguridad del Reino Unido calificaron al Autopilot de Tesla de "especialmente engañoso". [327]
En 2020, el ingeniero de usabilidad Dixon publicó un artículo en el que calificaba de exageradas las descripciones de Tesla sobre las capacidades del piloto automático y del FSD. [328]
En 2021, tras más de una docena de accidentes con el Autopilot (algunos mortales), el Departamento de Justicia de Estados Unidos (DOJ) inició una investigación penal para determinar si Tesla engañó a los consumidores, inversores y reguladores sobre el Autopilot. [329] Tesla confirmó que el DOJ había solicitado documentos relacionados con el Autopilot y el FSD en su presentación 10-K para 2022. [330] La Comisión de Bolsa y Valores también abrió una investigación civil independiente sobre las declaraciones hechas por Tesla y sus ejecutivos sobre el Autopilot. [331] [332]
En julio de 2022, el DMV de California presentó dos quejas ante la Oficina de Audiencias Administrativas del estado en las que se alegaba que Tesla "hizo o difundió declaraciones que son falsas o engañosas y que no se basan en hechos" relacionadas con las tecnologías de "piloto automático y conducción autónoma total". [333] [334] [335] En agosto de 2022, Tesla solicitó una audiencia para presentar su defensa. [336]
En septiembre de 2022, el gobernador de California, Gavin Newsom, firmó el proyecto de ley estatal SB 1398, [337] que entró en vigor el 1 de enero de 2023 y prohíbe a cualquier fabricante o concesionario de automóviles con funciones de automatización parcial del conductor utilizar un lenguaje engañoso para publicitar sus vehículos como autónomos, por ejemplo, nombrando el sistema "Conducción autónoma total". [338] [339]
Según un documento publicado en junio de 2021, la NHTSA ha iniciado al menos 30 investigaciones sobre accidentes de Tesla que se cree que involucraron el uso del piloto automático, algunos de los cuales resultaron en muertes. [340] [341]
En agosto de 2021, la Oficina de Investigación de Defectos (ODI) de la NHTSA abrió una evaluación preliminar (PE) designada PE 21-020 y publicó una lista de once accidentes en los que vehículos Tesla chocaron contra vehículos de emergencia estacionados; en cada caso, la NHTSA confirmó que el piloto automático o el control de crucero consciente del tráfico estaban activos durante la aproximación a los accidentes. De los once accidentes, siete resultaron en diecisiete lesiones en total y uno resultó en una muerte. El alcance de la evaluación planificada del sistema de piloto automático abordó específicamente los sistemas utilizados para monitorear y hacer cumplir la participación del conductor. [342] En septiembre de 2021, la NHTSA agregó un duodécimo accidente en Orlando de agosto de 2021 a la lista de investigación. [343]
En agosto de 2021, la NHTSA envió una solicitud de información relacionada con la PE 21-020 al director de calidad de campo de Tesla. La respuesta debía entregarse antes del 22 de octubre de 2021. [344] [345] En septiembre de 2021, la NHTSA envió una solicitud de información a Tesla y otros fabricantes de automóviles para obtener datos comparativos de ADAS. [346] [347] [348] Después de que Tesla implementara su Actualización de detección de luces de emergencia en septiembre de 2021, la NHTSA envió una carta de seguimiento a Tesla en octubre de 2021 solicitando "una cronología de eventos, investigaciones internas y estudios" que llevaron a la implementación de la actualización, [349] ya que potencialmente abordaba un defecto de seguridad, que requiere un retiro formal. [350]
En febrero de 2022, la NHTSA ODI abrió una segunda evaluación preliminar (PE 22-002) por "frenado fantasma" en los vehículos Tesla Model 3 y Model Y 2021-2022. [363] La PE 22-002 se correlacionó con la eliminación del hardware del radar de esos vehículos en mayo de 2021; en el momento en que se abrió la PE 22-002, la NHTSA no tenía conocimiento de ningún choque o lesión resultante de las quejas. [364] Según algunas quejas, al utilizar el piloto automático, "puede producirse una desaceleración rápida sin previo aviso, al azar y, a menudo, repetidamente en un solo ciclo de conducción". [363] El Washington Post también publicó un artículo que detalla el aumento de quejas a la NHTSA por falsos positivos en su sistema automático de frenado de emergencia. [365] Para mayo de 2022, la NHTSA había recibido 758 informes de frenadas inesperadas cuando el piloto automático estaba en uso y solicitó que Tesla respondiera las preguntas antes del 20 de junio de 2022. [366] [367]
También en junio de 2022, NHTSA ODI actualizó el PE 21-020 a un análisis de ingeniería (EA) y lo designó como EA 22-002, cubriendo aproximadamente 830.000 vehículos Tesla vendidos entre 2014 y 2022. [353] Los datos para PE 21-020 se habían complementado con solicitudes de información previas a Tesla (19 de abril de 2021) y la Orden General Permanente (SGO) 2021-01, [368] emitida el 29 de junio de 2021 [369] y enmendada el 5 de agosto de 2021, [353] que requería que los fabricantes de sistemas avanzados de asistencia a la conducción informaran rápidamente de los accidentes a la NHTSA. [370]
La investigación se amplió a un análisis de ingeniería después de que la NHTSA revisara los datos de 191 accidentes que involucraron el uso del piloto automático o tecnologías ADAS de nivel 2 relacionadas (control de crucero consciente del tráfico, dirección automática, navegación en piloto automático o cambio automático de carril). [373] Se eliminaron 85 porque otros conductores estaban involucrados o no había datos suficientes. [373] Se encontró que en aproximadamente la mitad de los 106 accidentes restantes, el conductor no respondió lo suficiente a la tarea de conducir, y aproximadamente 1 cuarto de los 106 fueron resultado de operar el piloto automático fuera de carreteras de acceso limitado, o cuando la tracción y las condiciones climáticas podían interferir. [373] Existía telemetría detallada para 43 de los 106 accidentes; de estos, los datos de 37 indicaban que las manos del conductor estaban en el volante en el último segundo antes de la colisión. [353]
El incidente de Laguna Beach identificado inicialmente en PE 21-020 fue eliminado de EA 22-002 ya que se encontró que "el vehículo chocado estaba estacionado fuera del tráfico y sin luces encendidas". [353] Se agregaron seis incidentes, lo que hace un total de dieciséis accidentes en los que un Tesla chocó con vehículos de emergencia estacionados, incluido el incidente de agosto de 2021 en Orlando. [353] En estos 16 incidentes, la NHTSA encontró que la mayoría resultó en advertencias de colisión frontal y aproximadamente la mitad resultó en frenado automático de emergencia. [353] En promedio, cuando el video estaba disponible, los conductores habrían podido ver un impacto potencial ocho segundos antes de la colisión, pero el piloto automático abortaría el control "menos de un segundo antes del primer impacto", [374] lo que puede no haber sido tiempo suficiente para que el conductor asumiera el control total. [375] Además, los datos sugieren que el requisito de Tesla de que los conductores del piloto automático tengan las manos en el volante en todo momento puede no ser suficiente para garantizar que el conductor preste atención a la tarea de conducir. [376] [373]
En agosto de 2022, la NHTSA envió una segunda carta a Tesla para la EA 22-002, en la que se solicitaba una descripción de la función de la cámara orientada al conductor, la identificación de todas las demandas o arbitrajes resultantes del uso del piloto automático, incluidas las transcripciones completas de las declaraciones, y "la explicación y la evidencia de ingeniería y seguridad para las decisiones de diseño con respecto a la aplicación de la participación/atención del conductor". [377] Tesla presentó una respuesta en septiembre. En julio de 2023 se envió una carta de seguimiento, en la que se solicitaban datos actuales y actualizaciones de la respuesta anterior. [378] A partir de octubre de 2023, la NHTSA comunicó sus conclusiones preliminares a Tesla durante varias reuniones, seguidas de una retirada voluntaria el 5 de diciembre de 2023 para proporcionar una actualización de software por aire para "incorporar controles y alertas adicionales... para alentar aún más al conductor a adherirse a su responsabilidad de conducción continua siempre que se active el Autosteer... [y proporcionar] controles adicionales al activar el Autosteer y mientras se utiliza la función fuera de las carreteras de acceso controlado", aunque no coincidió con el análisis de la NHTSA. [379] Al presentar su Informe de información sobre defectos asociado con la retirada de diciembre de 2023, Tesla concluyó que "en determinadas circunstancias, los controles del sistema de piloto automático pueden ser insuficientes para un sistema de asistencia al conductor que requiere la supervisión constante de un conductor humano". [380]
El EA 22-002 se cerró en abril de 2024. [381] ODI concluyó que su "análisis de los datos de accidentes indica que, antes del [recall de diciembre de 2023], el diseño del piloto automático no era suficiente para mantener la atención de los conductores", citando datos que muestran que en 59 de 109 accidentes, los peligros fueron visibles durante al menos cinco segundos antes de la colisión. Además, ODI agregó, basándose en la telemetría del vehículo, que "las advertencias proporcionadas por el piloto automático cuando se activó el sistema de dirección automática no garantizaron adecuadamente que los conductores mantuvieran su atención en la tarea de conducción", lo que demuestra que en aproximadamente el 80% de 135 incidentes, el frenado y/o la dirección no se produjeron hasta menos de un segundo antes de una colisión. [380] Una comparación con ADAS de nivel 2 similares llevó a ODI a concluir que "Tesla [es] un caso atípico de la industria en su enfoque de la tecnología L2 al no combinar un sistema de participación del conductor débil con las capacidades operativas permisivas del piloto automático". [380]
Como resultado, ODI abrió inmediatamente una segunda investigación sobre la efectividad del retiro de diciembre de 2023, [382] señalando "preocupaciones [identificadas] debido a eventos de choque posteriores a la solución y resultados de pruebas preliminares de la NHTSA de vehículos solucionados. Además, Tesla ha declarado que una parte de la solución requiere que el propietario opte por participar y permite que un conductor la revierta fácilmente. Tesla también ha implementado actualizaciones que no son de solución para abordar problemas que parecen estar relacionados con las preocupaciones de ODI bajo EA22002". [383]
Tesla emitió una "Actualización de detección de luces de emergencia" para el piloto automático en septiembre de 2021 que tenía como objetivo detectar "luces de emergencia intermitentes del vehículo en condiciones de poca luz y luego [responder] a dicha detección con alertas al conductor y cambios en la velocidad del vehículo mientras el piloto automático está activado", después de que la NHTSA hubiera abierto el PE 21-020 el mes anterior. Después de que se emitió la actualización, la NHTSA envió una carta a Tesla preguntando por qué la actualización no se había realizado en el marco del proceso de retirada, ya que "cualquier fabricante que emita una actualización por aire que mitigue un defecto que represente un riesgo irrazonable para la seguridad del vehículo de motor debe presentar oportunamente un aviso de retirada adjunto a la NHTSA". [384] [385]
Tesla emitió un llamado a revisión de 11.728 vehículos en octubre de 2021 debido a un error de comunicación que podría provocar falsas advertencias de colisión frontal o activaciones inesperadas del sistema automático de frenado de emergencia. El error había sido introducido por la actualización inalámbrica del firmware de la versión 10.3 del software beta de conducción autónoma completa, y se revirtió mediante otra actualización inalámbrica el mismo mes. [386] Los vehículos retirados se revirtieron a la versión 10.2 y luego se actualizaron a la 10.3.1. [277]
FSD 10.3 también se lanzó con diferentes perfiles de conducción para controlar el comportamiento del vehículo, denominados 'Chill', 'Average' y 'Assertive'; el perfil 'Assertive' atrajo una cobertura negativa en enero de 2022 por anunciar que "puede realizar paradas continuas " (pasar por señales de stop a una velocidad de hasta 5,6 mph), cambiar de carril con frecuencia y disminuir la distancia de seguimiento . [387] [388] El 1 de febrero, después de que la NHTSA le informara a Tesla que no detenerse en una señal de stop puede aumentar el riesgo de accidente y amenazó con "acciones inmediatas" por "elecciones de diseño intencionales que no sean seguras", [389] Tesla retiró casi 54.000 vehículos para desactivar el comportamiento de parada continua, [390] eliminando la función con una actualización de software por aire. [391]
El 16 de febrero de 2023, Tesla emitió un aviso de retiro del mercado para todos los vehículos equipados con el software beta de conducción autónoma completa, incluidos los modelos S y X de 2016-23, el modelo 3 de 2017-23 y el modelo Y de 2020-23, que abarcan un total de 362 758 vehículos. [392] La NHTSA identificó cuatro situaciones de tráfico específicas en una carta enviada a Tesla el 25 de enero, [393] [394] y Tesla decidió voluntariamente solicitar un retiro del mercado para abordar esas situaciones, [392] que incluyen vehículos que operan bajo la versión beta de FSD que realizan las siguientes acciones inapropiadas: [393]
El retiro, que cubre todas las versiones de FSD Beta, [393] se realizó mediante el lanzamiento de una actualización de software en marzo de 2023. [157] [392]
On December 12, 2023, following a 2-year-long investigation by the NHTSA,[395] Tesla issued a wider recall on all vehicles equipped with any version of Autosteer, including 2012–2023 Model S; 2016–2023 Model X; 2017–2023 Model 3; and 2020–2023 Model Y, covering 2,031,220 vehicles in total.[379] The NHTSA concluded that Autosteer's controls were not sufficient to prevent misuse and did not ensure that the drivers maintained "continuous and sustained responsibility for vehicle operation".[379] An over-the air software update was deployed to a subset of vehicles upon the release of the recall notice, with plans to roll it out to the remaining fleet at a later date, which made visual alerts more prominent within the user interface, simplified the process to turn Autosteer on and off, added additional checks when Autosteer is used near intersections or on streets that are not limited-access roads, and disabled Autosteer if the driver repeatedly failed to demonstrate driving responsibility while using the feature.[379] In February 2024, Consumer Reports claimed that its testing of Tesla's Autopilot recall update did not fully address the safety concerns raised by the NHTSA, saying that the recall "addresses minor inconveniences rather than fixing the real problems."[396]
In the 4th quarter [of 2023], we recorded one crash for every 5.39 million miles driven in which drivers were using Autopilot technology. For drivers who were not using Autopilot technology, we recorded one crash for every 1.00 million miles driven. By comparison, the most recent data available from NHTSA and FHWA (from 2022) shows that in the United States there was an automobile crash approximately every 670,000 miles.
Our goal with the introduction of this new hardware and software is not to enable driverless cars, which are still years away from becoming a reality. Our system is called Autopilot because it's similar to systems that pilots use to increase comfort and safety when conditions are clear. Tesla's Autopilot is a way to relieve drivers of the most boring and potentially dangerous aspects of road travel – but the driver is still responsible for, and ultimately in control of, the car.
While the autopilot relieves you from manually manipulating the flight controls, you must maintain vigilance over the system to ensure that it performs the intended functions and the aircraft remains within acceptable parameters of altitudes, airspeeds, and airspace limits.
At "2 to 3 months from now", Tesla expects .. the new software validation for the Autopilot features
Chris: The time when someone will be able to buy one of your cars and literally just take the hands of the wheel and go to sleep and wake up and find that they've arrived. How far away is that? To do that safely? Elon: That's about two years.
{{cite web}}
: CS1 maint: multiple names: authors list (link)Traffic-Aware Cruise Control is primarily intended for driving on dry, straight roads, such as highways and freeways. It should not be used on city streets.
While Tesla explicitly informed Model S owners that Autopilot should only be used on limited-access highways, it did not incorporate protections against its use on other types of roads.
Do not use Autosteer on city streets, in construction zones, or in areas where bicyclists or pedestrians may be present.
Performance data show that the Tesla followed various lead vehicles in heavy traffic for minutes before the crash. When the last lead vehicle changed lanes—3 to 4 seconds before the crash—revealing the fire truck on the path of the Tesla, the system was unable to immediately detect the hazard and accelerated the Tesla toward the stationary truck. By the time the system detected the stationary vehicle and gave the driver a collision warning—0.49 second before impact—the collision was imminent and the warning was too late, particularly for an inattentive driver.
{{cite web}}
: CS1 maint: multiple names: authors list (link){{cite press release}}
: CS1 maint: others (link)24011.5(b): A manufacturer or dealer shall not name any partial driving automation feature, or describe any partial driving automation feature in marketing materials, using language that implies or would otherwise lead a reasonable person to believe, that the feature allows the vehicle to function as an autonomous vehicle, as defined in Section 38750, or otherwise has functionality not actually included in the feature. A violation of this subdivision shall be considered a misleading advertisement for the purposes of Section 11713.direct URL
24011.5(c): As used in this section, "partial driving automation feature" has the same meaning as "Level 2 partial driving automation" in the Society of Automotive Engineers (SAE) Standard J3016 (April 2021).