Tesla Autopilot es un sistema avanzado de asistencia al conductor (ADAS) desarrollado por Tesla que equivale a la automatización parcial del vehículo ( automatización de nivel 2 , según lo define SAE International ). Tesla proporciona un "piloto automático base" en todos los vehículos, que incluye centrado de carril y control de crucero consciente del tráfico . Los propietarios pueden comprar o suscribirse a Full Self-Driving ( FSD ), que agrega navegación semiautónoma que responde a los semáforos y señales de alto, asistencia para cambiar de carril , estacionamiento automático y la capacidad de solicitar el automóvil desde un garaje o lugar de estacionamiento.
La intención declarada de la compañía es ofrecer conducción totalmente autónoma (SAE Nivel 5 ) en el futuro, reconociendo que se deben superar obstáculos técnicos y regulatorios para lograr este objetivo. [1] Los nombres Autopilot y Full Self-Driving son controvertidos, porque los vehículos permanecen en el Nivel 2 de automatización y, por lo tanto, no son "totalmente autónomos " y requieren supervisión activa del conductor.
La compañía afirma que las características reducen los accidentes causados por la negligencia del conductor y la fatiga por conducir durante mucho tiempo. [2] [3] Las colisiones y muertes que involucran autos Tesla con el piloto automático activado han llamado la atención de la prensa y las agencias gubernamentales. [4] Los observadores de la industria y académicos han criticado la decisión de Tesla de utilizar consumidores no capacitados para validar las funciones beta como peligrosa e irresponsable. [5] [6] [7] [8]
Desde 2013, el director ejecutivo de Tesla, Elon Musk, ha hecho repetidamente predicciones inexactas para que Tesla alcance el Nivel 5 de autonomía dentro de uno a tres años, [9] prediciendo más recientemente el final de 2023. [10]
Elon Musk habló por primera vez públicamente sobre el sistema de piloto automático de Tesla en 2013, y señaló que "es bueno tener el piloto automático en los aviones, y deberíamos tenerlo en los automóviles". [11] Durante la década siguiente, Autopilot pasó por una serie de mejoras de hardware y software, acercándose gradualmente al objetivo de autonomía total, que, a partir de enero de 2024 [actualizar], sigue sin alcanzarse. El piloto automático, tal como se introdujo inicialmente en 2014, se refería al estacionamiento automático y la convocatoria a baja velocidad en propiedad privada, [12] utilizando sensores y hardware informático desarrollado por Mobileye. En 2016, el piloto automático basado en Mobileye había agregado capacidades de frenado automático de emergencia , control de crucero adaptativo y centrado de carril [13] cuando Tesla y Mobileye disolvieron su asociación en julio. [14] El piloto automático mejorado (EA) se anunció más tarde en 2016 como una opción de costo adicional que utilizaba un nuevo conjunto de hardware desarrollado por Tesla; [15] la característica distintiva clave de EA, "Navigate on Autopilot", que utiliza el nuevo conjunto de hardware para guiar el vehículo en carreteras de acceso controlado , desde la rampa de entrada hasta la de salida, se retrasó hasta 2018. [16] En Al mismo tiempo que se presentó EA, Tesla también ofreció la conducción autónoma total (FSD) como una opción de actualización de EA en 2016, lo que ampliaría las capacidades de conducción guiada por máquinas a las carreteras locales. [15] Las pruebas beta de FSD comenzaron en octubre de 2020. [17]
En octubre de 2014, Tesla ofreció a los clientes la posibilidad de precomprar un piloto automático [12] [18] [19] que no estaba diseñado para la conducción autónoma . [20] Las versiones iniciales se construyeron en asociación con Mobileye , [21] pero Mobileye puso fin a la asociación en julio de 2016 porque Tesla "estaba superando los límites en términos de seguridad". [22] [23]
Los automóviles Tesla fabricados después de septiembre de 2014 tenían el hardware inicial (versión de hardware 1 o HW1) que admitía el piloto automático. [24] El primer lanzamiento del software Autopilot se produjo en octubre de 2015 como parte de la versión 7.0 del software Tesla. [25] La versión 7.1 eliminó algunas características para desalentar la conducción arriesgada. [26]
La versión 8.0 procesó señales de radar para crear una nube de puntos similar al lidar para ayudar a navegar en condiciones de baja visibilidad. [27] [28] En noviembre de 2016, Autopilot 8.0 se actualizó para alentar a los conductores a agarrar el volante. [29] [30] En noviembre de 2016, el piloto automático había funcionado durante 300 millones de millas (500 millones de kilómetros). [31]
En octubre de 2016, los sensores del piloto automático y el hardware informático pasaron a la versión de hardware 2 (HW2) para automóviles nuevos; [32] el hardware actualizado se denominó colectivamente Autopilot 2.0 para distinguirlo de los vehículos Autopilot/HW1 originales. [33] En el momento de su lanzamiento, los vehículos Autopilot 2.0 con HW2 en realidad tenían menos funciones que los vehículos HW1; por ejemplo, los vehículos HW2 no pudieron ser convocados en 2016. [34] [35]
Tesla también utilizó el término piloto automático mejorado (EA) para referirse a las capacidades planificadas que llegarían a los vehículos HW2; La característica distintiva de EA anunciada en diciembre de 2016 fue "Navegar en piloto automático", que permite la conducción controlada por una máquina en autopistas de acceso controlado desde la rampa de entrada hasta la rampa de salida, incluida la capacidad de cambiar de carril sin la intervención del conductor, la transición de una autopista a otro, y salir. [36] Los vehículos HW2 se actualizaron en enero y febrero de 2017 con la versión 8.0 del software, que incluía control de crucero consciente del tráfico y dirección automática (centrado de carril) en carreteras divididas y 'carreteras locales' hasta una velocidad de 45 millas por hora (72 km/h). [37] [38] La versión 8.0 también puso más énfasis en el sistema de radar, para tratar de evitar problemas como el fatal accidente del piloto automático en 2016 en Florida. [39] La versión de software 8.1 para HW2 llegó en marzo de 2017, lo que proporciona a los autos HW2 la misma función que los autos HW1, pero no "Navegación en piloto automático". [40]
En agosto de 2017, Tesla anunció la versión de hardware 2.5 (HW2.5), que actualizó el procesador integrado y agregó sistemas redundantes. [42] La versión 9.0 del software se lanzó en octubre de 2018, [43] en preparación para el lanzamiento de "Navigate on Autopilot" para vehículos HW2/HW2.5 con EA, que se implementó más tarde ese mes. [44] Al mismo tiempo, Tesla eliminó la opción de comprar la actualización "Full Self-Driving". [45] En una prueba de manejo realizada en noviembre de 2018, el reportero de The Verge , Andrew J. Hawkins, calificó el sistema beta "Navigate on Autopilot" como "la característica que podría darle a Tesla una ventaja a medida que pasa de ser una empresa de nicho a convertirse en una potencia mundial". [46] Como se publicó inicialmente, "Navegar en piloto automático" sugeriría cambios de carril, pero no podía cambiar de carril hasta que el conductor confirmara la sugerencia a través de la palanca de la señal de giro. [47]
En marzo de 2019, Tesla hizo la transición a la versión de hardware 3 (HW3) para automóviles nuevos. [48] Los cambios de carril completamente automatizados sin requerir confirmación del conductor usando "Navegar en piloto automático" se agregaron como una opción en una actualización de software de abril, [49] aunque Consumer Reports lo llamó "mucho menos competente" que un conductor humano. [50] Para cumplir con la nueva regulación de la Comisión Económica de las Naciones Unidas para Europa relacionada con la función de dirección comandada automáticamente , [51] Tesla proporcionó un piloto automático actualizado en mayo, limitado a Europa. [52] En septiembre, Tesla lanzó la versión 10 del software para los evaluadores del Programa de Acceso Temprano (EAP), citando mejoras en la visualización de la conducción y los cambios automáticos de carril. [53]
En 2021, Tesla comenzó a pasar del uso de radar al uso exclusivo de Tesla Vision. [54] En octubre de 2022 proporcionó su razonamiento, citando la "seguridad". [55]
Samsung fabrica el procesador para Hardware 4 (HW4) en un proceso de 7 nm. El sistema personalizado en un chip (SoC) se llama "FSD Computer 2". [56] La placa tiene 16 GB de RAM y 256 GB de almacenamiento, que son dos y cuatro veces la RAM y el almacenamiento en HW3, respectivamente. [57] Musk afirmó que las capacidades computacionales del HW4 son de tres a ocho veces más poderosas que las del HW3. [58]
Tesla comenzó a enviar automóviles con HW4 en enero de 2023, comenzando con los Model S y Model Y renovados; [58] sin embargo, FSD no estaba disponible inicialmente. [59] Pasaron seis meses antes de que los automóviles basados en HW4 ejecutaran software basado en cámaras. [58] [60] A pesar del aumento de la resolución del sensor de imagen con los automóviles equipados con HW4, HW4 ejecuta el software FSD emulando HW3, incluida la reducción del tamaño de las imágenes de la cámara, ya que Tesla ha pospuesto el entrenamiento basado en las nuevas cámaras HW4. [61] [58] Musk declaró que la capacitación específica de FSD para HW4 comenzará después de que se termine el nuevo centro de datos en la Gigafábrica de Texas. [58]
Un desmontaje de un automóvil HW4 Model S y Model X en 2023 reveló que tenían hardware de radar de alta definición, pero el software no usaba radar. [62]
Musk anunció el Hardware 5 (HW5), denominado AI5, durante la reunión anual de Tesla el 13 de junio de 2024. [58] [63] Musk declaró que su lanzamiento está previsto para enero de 2026 y que será diez veces más potente que el HW4. [58] Musk también declaró que utilizará hasta 800 vatios al procesar entornos complejos, frente a un máximo de 300 vatios para HW3 y HW4. [58]
En octubre de 2016, al mismo tiempo que el lanzamiento de HW2, [64] Tesla lanzó un vídeo titulado "Hardware de conducción autónoma total en todos los Teslas" [65] que pretendía demostrar la conducción autónoma total, el sistema diseñado para ampliar la conducción autónoma. conduciendo por carreteras locales. [66] [67] (El director ejecutivo Elon Musk tuiteó un enlace a una versión más larga en noviembre de 2016. [68] ) En el video, la persona en el asiento del conductor no toca el volante ni los pedales durante la demostración. El vídeo también muestra perspectivas de las cámaras del vehículo y del sistema de reconocimiento de imágenes. [69] A sugerencia de Musk, la tarjeta de título dice: "La persona en el asiento del conductor sólo está allí por razones legales. No está haciendo nada. El automóvil se conduce solo". [70] Fue apodado el vídeo " Paint It Black ", en honor a la canción de los Rolling Stones de 1966 utilizada como banda sonora. [66]
Los exempleados que ayudaron a producir el video de 2016 fueron entrevistados por The New York Times en 2021. [71] En la entrevista, afirmaron que el vehículo seguía una ruta que había sido mapeada con cámaras de escaneo detalladas, que es una tecnología que era y no está disponible en los coches de producción Tesla. Incluso con estos aumentos, los conductores humanos tuvieron que intervenir para tomar el control, el vehículo supuestamente chocó contra "una barrera en la carretera" en los terrenos de Tesla durante el rodaje, lo que requirió reparaciones en el vehículo, y el coche se estrelló contra una valla al intentar aparcar automáticamente. . [72] En enero de 2024, Bloomberg publicó una exposición basada en correos electrónicos internos de Tesla que revelaban que Musk supervisó personalmente la edición y postproducción del video. [73]
Motor Trend y Jalopnik compararon lo que Tesla había mostrado con el vídeo engañoso que mostraba un camión Nikola One EV que en realidad funcionaba por gravedad; [74] Jalopnik comentó: "[el video de Tesla] puede ser peor, porque este video se usó para sugerir engañosamente las capacidades de un sistema implementado en manos de personas reales y utilizado en vías públicas". [75] En junio de 2022, Ashok Elluswamy, director del software Autopilot, hizo una declaración durante una declaración tomada para una demanda civil presentada contra Tesla por la familia de un conductor que murió en 2018 después de que el Modelo X que conducía con Autopilot se estrellara. contra una barrera de hormigón en Mountain View, California. Elluswamy afirmó que el video no tenía como objetivo original "retratar con precisión lo que estaba disponible para los clientes en 2016. Era retratar lo que era posible incorporar al sistema", mientras que el video final no tenía tal descargo de responsabilidad. [76] Un juez de un tribunal de circuito de Florida también señaló el video final como parte de la estrategia de marketing de Tesla al rechazar la moción de Tesla para desestimar una demanda por una muerte en 2019, y escribió que "en este video no hay ninguna indicación de que el video sea una aspiración o que esto La tecnología no existe actualmente en el mercado." [77]
En el momento en que se lanzó el video "Paint it Black" en 2016, se reconoció que FSD estaba "un poco lejos en el futuro". [36] La opción de comprar la actualización FSD a EA se eliminó del sitio web de Tesla en octubre de 2018; Elon Musk tuiteó que la actualización estaba "causando demasiada confusión". El analista de tecnología Rob Enderle calificó la eliminación de la opción de actualización como "increíblemente estúpida" y agregó "no lances un sistema que no funciona y dificulta el pedido". [78] Durante una llamada de resultados de enero de 2019, Elon Musk reiteró que "existe la capacidad total de conducción autónoma", refiriéndose a "Navegar en piloto automático", una función de EA limitada a autopistas de acceso controlado. [45] La opción EA fue reemplazada por FSD en 2019 sin ofrecer una funcionalidad similar a "Navegación en piloto automático" para las carreteras locales; El giro automático y el control de crucero sensible al tráfico se transfirieron al conjunto de funciones básicas de piloto automático, que se convirtió en estándar en todos los Teslas nuevos. [79] [80]
En septiembre de 2020, Tesla reintrodujo el término Piloto automático mejorado para distinguir el subconjunto existente de características que incluían viajes por autopista de alta velocidad y estacionamiento y convocatoria a baja velocidad, del FSD, que agregaría viajes por carretera urbana de velocidad media. [81] Tesla lanzó una versión " beta " de su software FSD (que extendió la conducción y navegación controladas por máquina tipo "Navigate on Autopilot" a "carreteras locales") en los Estados Unidos en octubre de 2020 para los probadores de EAP. [82] [83] El nivel de opción EA estuvo disponible para todos los compradores en junio de 2022, [79] y la versión beta de FSD se había expandido a aproximadamente 160.000 probadores en los Estados Unidos y Canadá en septiembre. [84] En noviembre de 2022, la versión beta de FSD se extendió a todos los propietarios en América del Norte que habían comprado la opción. [85] En abril de 2024, FSD obtuvo la aprobación en China . [86]
En 2016, el precio inicial de Autopilot (llamado "Autopilot mejorado") era de $5000 y FSD era un complemento por $3000. [87] En abril de 2019, el piloto automático básico se incluyó en todos los automóviles Tesla, [88] y el FSD costaba $ 5 000, aumentando a $ 10 000 en octubre de 2020 y $ 15 000 en septiembre de 2022. [89] A medida que el precio del FSD aumentó, la fracción de compradores quienes lo compraron disminuyó constantemente, de aproximadamente el 37% en 2019 al 22% en 2020 al 12% en 2021. [90] A partir de 2021, la compañía ofreció una suscripción a FSD por $ 199 por mes o $ 99 por mes si el cliente tenía Piloto automático mejorado ya adquirido. [91] En septiembre de 2023, el precio del FSD se redujo a 12.000 dólares. [92] En abril de 2024, Tesla redujo el precio de suscripción a FSD a $99 por mes para usuarios nuevos o para usuarios que ya habían comprado Enhanced Autopilot, [93] y redujo el precio de compra a $8,000. [94] La caída del precio del servicio por parte de Tesla fue contraria a las declaraciones anteriores de Musk sobre cómo el precio de FSD continuaría aumentando, [95] y enfureció a los usuarios existentes de FSD que pagaron precios más altos anteriormente. [96]
Las capacidades del producto Autopilot en el Reino Unido son diferentes de las disponibles en los Estados Unidos. El producto del Reino Unido es un conjunto que incluye tecnologías como ACC, LKA y AEB similar a lo que está disponible en otros vehículos europeos. [97]
EuroNCAP comparó el conjunto ADAS del piloto automático Tesla Model 3 con lo que está disponible en otros vehículos europeos. EuroNCAP hace comentarios sobre información sugerente engañosa o confusa difundida. También comenta sobre el riesgo de dependencia excesiva. [98]
El manual indica correctamente las limitaciones de las capacidades del sistema.
—EuroNCAP [ 98 ]
En China, la FSD se aprobó a finales de abril de 2024. [99]
En Australia, el piloto automático básico y el piloto automático mejorado están disponibles, mientras que FSD no. El cambio de carril está disponible como parte del piloto automático mejorado. [100] En Australia, está disponible un servicio FSD que difiere del servicio beta estadounidense. Por ejemplo, es posible que girar en una calle de la ciudad no esté disponible en el Tesla FSD australiano. [101] En Australia, Tesla FSD puede detenerse en las señales de alto. [102]
La capacidad de conducción autónoma total (FSD) [103] es un paquete de actualización de Autopilot que ofrece funciones ADAS adicionales, como el reconocimiento de semáforos.
El enfoque de Tesla para intentar alcanzar el nivel 5 de SAE es entrenar una red neuronal utilizando el comportamiento de más de 6 millones de conductores Tesla [104] [105] utilizando principalmente cámaras de luz visible y mapas bidimensionales de grano grueso utilizados para la navegación. [106] [107] Tesla ha tomado la decisión deliberada de no utilizar lidar, que Elon Musk ha calificado de "estúpido, caro e innecesario". [108] Esto hace que el enfoque de Tesla sea marcadamente diferente del de otras empresas como Waymo y Cruise , que entrenan sus redes neuronales utilizando el comportamiento de un pequeño número de conductores altamente capacitados, [109] [110] y, además, se basan en datos muy detallados (centímetros). -escala) mapas tridimensionales y lidar en sus vehículos autónomos. [107] [111] [112] [113] [114]
Según Elon Musk, la autonomía total es "realmente una limitación del software: el hardware existe para crear una autonomía total, por lo que en realidad se trata de desarrollar una IA avanzada y limitada para que funcione el automóvil". [115] [116] El desarrollo del piloto automático se centra en "redes neuronales cada vez más sofisticadas que pueden funcionar en computadoras de tamaño razonable en el automóvil". [115] [116] Según Musk, "el coche aprenderá con el tiempo", incluso de otros coches. [117]
El software de Tesla ha sido entrenado en base a tres mil millones de millas recorridas por vehículos Tesla en vías públicas, hasta abril de 2020 [actualizar]. [118] [119] Además de decenas de millones de millas en vías públicas, [120] los competidores han entrenado su software en decenas de miles de millones de millas en simulaciones por computadora, a partir de enero de 2020 [actualizar]. [121] En términos de hardware informático, Tesla diseñó un chip de computadora autónomo que se ha instalado en sus automóviles desde marzo de 2019 [122] y también diseñó y construyó internamente una supercomputadora de entrenamiento de redes neuronales ("Tesla Dojo"); [123] [124] Otras empresas de automatización de vehículos, como Waymo, también utilizan regularmente conjuntos de chips personalizados y redes neuronales. [125] [126]
No creo que tengamos que preocuparnos por los coches autónomos porque es una forma limitada de IA. No es algo que creo que sea muy difícil. Hacer una conducción autónoma que sea, hasta cierto punto, mucho más segura que la de una persona, es mucho más fácil de lo que la gente piensa. [...] casi lo veo como un problema resuelto.
— Elon Musk, discurso de apertura, conferencia de Nvidia (marzo de 2015) [127]
En diciembre de 2015, Musk predijo que se implementaría una "autonomía completa" para 2018. [128] A finales de 2016, Tesla esperaba demostrar una autonomía total para finales de 2017, [129] [130] y en abril de 2017, Musk predijo que en unos dos años los conductores podrían dormir en su vehículo mientras éste se conduce solo. [131] En 2018, Tesla revisó la fecha para demostrar la autonomía total a finales de 2019. [132]
Creo que este año contaremos con la conducción completamente autónoma. Esto significa que el coche podrá encontrarte en un aparcamiento, recogerte y llevarte hasta tu destino sin intervención. Este año. Yo diría que estoy seguro de eso, eso no es un signo de interrogación. Sin embargo, la gente a veces extrapolará eso en el sentido de que ahora funciona con un 100% de certeza, sin necesidad de observación; perfectamente, este no es el caso.
— Elon Musk, Podcast (febrero de 2019) [133] [134]
En 2019 [135] [136] y 2020, [137] la página de pedidos de Tesla para "Capacidad total de conducción autónoma" decía:
En enero de 2020, Musk afirmó que el software FSD tendría "funciones completas" para fines de 2020, y agregó que esa función "no significa que las funciones estén funcionando bien". [138] En agosto de 2020, Musk declaró que 200 ingenieros de software, 100 ingenieros de hardware y 500 " etiquetadores " estaban trabajando en Autopilot y FSD. [139] A principios de 2021, Musk declaró que Tesla proporcionaría autonomía SAE Nivel 5 para fines de 2021. [140] [141] En una conferencia telefónica de marzo de 2021 entre Tesla y el Departamento de Vehículos Motorizados de California (DMV), el director de Tesla del software Autopilot reveló que los comentarios de Musk "no reflejaban la realidad de la ingeniería". Los detalles de la llamada se hicieron públicos a través de una solicitud de PlainSite según la Ley de Libertad de Información . [142] Hablando por videollamada en una conferencia de IA de 2023 celebrada en Shanghai, Musk admitió que sus predicciones anteriores eran demasiado optimistas y predijo que Tesla finalmente crearía vehículos totalmente autónomos en algún momento "a finales de este año". [143]
Durante la reunión de inversores del primer trimestre de 2024 a principios de 2024, Musk anunció que revelaría un nuevo producto robotaxi en agosto. Según una investigación realizada por NBC News, en abril de 2024, Tesla aún no ha solicitado los permisos a nivel estatal necesarios para operar vehículos autónomos en los EE. UU. [144]
En octubre de 2020, Tesla lanzó por primera vez una versión beta de su software FSD para los probadores del programa de acceso temprano, un pequeño grupo de usuarios en los Estados Unidos. [145] [82] [83] Musk declaró que las pruebas de FSD beta "[serán] extremadamente lentas [y] cautelosas" y "se limitarán a un pequeño número de personas que sean conductores expertos [y] cuidadosos". [82] La publicación del programa beta renovó la preocupación sobre si la tecnología está lista para ser probada en la vía pública. [146] [147] En enero de 2021, el número de empleados y clientes que probaron el software beta FSD fue "casi 1000" [148] y se expandió en mayo de 2021 a varios miles de empleados y clientes. [149]
En octubre de 2021, Tesla comenzó el lanzamiento generalizado de la versión beta de FSD para aproximadamente 1000 conductores más en los EE. UU., y la versión beta se volvió accesible para los conductores de Tesla que lograron una puntuación de 100/100 en un sistema de puntuación de seguridad patentado. [150] En noviembre de 2021, había alrededor de 11,700 probadores beta de FSD [151] y alrededor de 150,000 vehículos que usaban el sistema de puntuación de seguridad de Tesla, [152] que luego creció a 60,000 usuarios que participaban en FSD beta en enero de 2022, [153] y 100,000 usuarios en Abril de 2022. [149] En noviembre de 2022, la versión beta de FSD se abrió a todos los propietarios norteamericanos que hubieran comprado la opción, independientemente de su puntuación de seguridad. [85] En febrero de 2023 [actualizar], Tesla tiene alrededor de 360.000 participantes en FSD Beta. [154]
En febrero de 2023, la Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA) retiró del mercado 362.758 vehículos equipados con FSD beta [155] y la empresa detuvo la incorporación de nuevos participantes. [156] En marzo de 2023, FSD Beta v11, que también fusionó el código de Autopilot con FSD, se lanzó como solución a los problemas. [157] En julio de 2023, la NHTSA pidió a Tesla que aclarara qué cambios se habían realizado y cuándo se implementaron. [158] La NHTSA informó posteriormente 60 accidentes y una muerte relacionados con el uso de FSD beta durante el período de agosto de 2022 a agosto de 2023. [159]
En agosto de 2023, Musk transmitió en vivo una demostración de 45 minutos de la próxima versión 12 de FSD, que, según él, utiliza solo una red neuronal y no ningún código escrito por humanos . [160] Hubo una intervención manual: a mitad de camino, malinterpretó una flecha verde de giro a la izquierda como si permitiera el tráfico hacia adelante, y casi se pasó el semáforo en rojo antes de que Musk interviniera. [160]
En marzo de 2024, la versión 12.3 de FSD comenzó a implementarse para un conjunto inicial de clientes de EE. UU., con comentarios positivos. [161] [162] Posteriormente, Tesla anunció una prueba gratuita de un mes de FSD, [163] y Musk ordenó demostrar FSD a todos los posibles compradores en los EE. UU. [163] La versión 12.3.3 de FSD reemplazó oficialmente la palabra "beta" por "supervisado" en su denominación, [164] y, en abril de 2024, Tesla anunció que los usuarios habían conducido más de mil millones de millas en FSD Beta. [95]
En mayo de 2024, los analistas de los datos publicados por YipitData descubrieron que, de los casi 3500 propietarios de Tesla que probaron FSD en abril de 2024, solo el 2% mantuvo sus suscripciones. [165]
Tesla Dojo es una supercomputadora diseñada desde cero por Tesla para el procesamiento y reconocimiento de videos por visión por computadora . Se utilizará para entrenar los modelos de aprendizaje automático de Tesla para mejorar la FSD.
Musk mencionó por primera vez Dojo en abril de 2019 [166] [167] y agosto de 2020. [167] Musk lo anunció oficialmente en el Día de la IA de Tesla el 19 de agosto de 2021. [168] En septiembre de 2021, se publicó un documento técnico de Tesla Dojo. liberado. En agosto de 2023, Tesla dijo que había iniciado la producción de Dojo, configurado con 10.000 chips Nvidia. [169]
Dojo consta de varios gabinetes. Cada gabinete contiene múltiples mosaicos de entrenamiento dispuestos verticalmente. [170] Cada mosaico contiene múltiples chips de procesamiento D1 diseñados por Tesla con memoria asociada. [171] Según el director senior de hardware de piloto automático de Tesla, Ganesh Venkataramanan, "Tesla coloca 25 de estos chips en una sola 'placa de entrenamiento', y 120 de estas fichas se juntan... lo que equivale a más de un exaflop [un millón de teraflops] de poder". [172] (En agosto de 2021 [actualizar], Nvidia declaró que el centro de entrenamiento de IA anterior a Dojo Tesla utilizaba 720 nodos de ocho unidades de procesamiento de gráficos (GPU) Nvidia A100 Tensor Core , 5760 GPU en total, para hasta 1,8 exaflops de rendimiento. [173] ) En abril de 2024, Musk dijo que Tesla estaba usando 35.000 chips Nvidia H100 y que estaba en camino de haber invertido 10.000 millones de dólares acumulativos para finales de año para entrenar el modelo de red neuronal para FSD. [174]
La estrategia de conducción autónoma de Tesla ha sido criticada por considerarla peligrosa y obsoleta, ya que otras empresas la abandonaron hace años. [175] [176] [177] La mayoría de los expertos creen que el enfoque de Tesla de intentar lograr vehículos autónomos evitando mapas de alta definición y lidar no es factible. [178] [179] [180] El analista automotriz Brad Templeton ha criticado el enfoque de Tesla argumentando: "El enfoque sin mapa implica olvidar lo que se aprendió antes y hacerlo todo de nuevo". [181] En un estudio de mayo de 2021 realizado por Guidehouse Insights, Tesla ocupó el último lugar tanto en estrategia como en ejecución en el sector de la conducción autónoma. [182] Algunos informes de noticias de 2019 afirman que "prácticamente todo el mundo ve [lidar] como un ingrediente esencial para los vehículos autónomos" [183] y "los expertos y defensores dicen que agrega profundidad y visión donde la cámara y el radar por sí solos se quedan cortos". [184]
Un estudio de agosto de 2021 realizado por Missy Cummings et al encontró que tres autos Tesla Model 3 exhibieron "una variación significativa entre y dentro del vehículo en una serie de métricas relacionadas con el monitoreo del conductor, las alertas y el funcionamiento seguro de la autonomía subyacente... sugiriendo] que el rendimiento de los sistemas subyacentes de inteligencia artificial y visión por computadora era extremadamente variable". [185]
En septiembre de 2021, los juristas William Widen y Philip Koopman argumentaron que la publicidad de Tesla de FSD como un sistema SAE Nivel 2 era engañosa para "evitar la supervisión regulatoria y los procesos de permisos requeridos para vehículos más altamente automatizados". [186] En cambio, argumentaron que FSD debería considerarse una tecnología SAE Nivel 4 e instaron a los Departamentos de Transporte estatales de EE. UU. a clasificarla como tal, ya que los videos disponibles públicamente muestran que "los conductores de prueba beta operan sus vehículos como si validaran SAE Nivel 4". (alta automatización de conducción), que a menudo revelan situaciones dramáticamente riesgosas creadas por el uso de los vehículos de esta manera". [186]
El piloto automático de Tesla está clasificado como Nivel 2 según los seis niveles SAE (0 a 5) de automatización de vehículos . [187] En este nivel, el automóvil puede actuar de forma autónoma, pero requiere que el conductor supervise la conducción en todo momento y esté preparado para tomar el control en cualquier momento. [188] [189] El manual del propietario de Tesla establece que el piloto automático no debe usarse en calles de la ciudad o en carreteras donde las condiciones del tráfico cambian constantemente; [190] [191] [192] sin embargo, algunas capacidades FSD ("control de tráfico y señales de alto (beta)") y capacidades futuras de FSD ("dirección automática en calles de la ciudad") se anuncian para las calles de la ciudad. [193]
En abril de 2016, Elon Musk afirmó que la probabilidad de un accidente era al menos un 50% menor cuando se utilizaba el piloto automático, sin citar ninguna referencia. En ese momento, se estimó que, en conjunto, los Tesla habían recorrido 47 millones de millas en modo de piloto automático. [207] Después del primer accidente fatal del piloto automático ampliamente publicitado en mayo de 2016, que ocurrió en Williston, Florida , Tesla reconoció la muerte y publicó un blog en junio, comparando la tasa de mortalidad promedio en los Estados Unidos (en ese momento, uno por 94 millones). millas) y en todo el mundo (uno por cada 60 millones de millas) con el de Tesla Autopilot (uno por cada 130 millones de millas); [208] Tesla declaró en julio que "los clientes que utilizan el piloto automático son estadísticamente más seguros que aquellos que no lo utilizan en absoluto", "el sistema [del piloto automático] proporcionó un beneficio neto de seguridad a la sociedad" y "el umbral 'mejor que el humano' había sido cruzado y validado sólidamente internamente". [209] El enfoque estadístico de Tesla fue criticado por comparar dos conjuntos de datos diferentes; Si bien el piloto automático se limita a la conducción en autopistas, la tasa de mortalidad general de Estados Unidos incluye condiciones de conducción más variadas. Además, los vehículos de Tesla eran más grandes y más caros que la mayoría de los vehículos en circulación, lo que los hacía generalmente más seguros en caso de accidente. [210] Otros factores que podrían haber afectado los datos incluyen las condiciones climáticas y la demografía de los propietarios de Tesla. [211]
Fortune criticó la venta de 2.000 millones de dólares en acciones de Tesla y señaló que la venta se produjo menos de dos semanas después de informar "inmediatamente" del fatal accidente de principios de mayo a la NHTSA, pero antes de que Tesla publicara su reconocimiento público del accidente a finales de junio; El artículo decía que "Tesla y Musk no revelaron el hecho material de que un hombre había muerto mientras usaba una tecnología de piloto automático que Tesla había comercializado vigorosamente como segura e importante para sus clientes". Musk respondió al artículo con un argumento estadístico en un correo electrónico al periodista, diciendo: "De hecho, si alguien se molestara en hacer los cálculos (obviamente, no lo hizo), se daría cuenta de que de más de 1 millón de muertes automovilísticas por año en todo el mundo, aproximadamente la mitad Un millón de personas se habrían salvado si el piloto automático de Tesla estuviera disponible universalmente. Por favor, tómate 5 minutos y haz los malditos cálculos antes de escribir un artículo que engañe al público". [212]
Tras el accidente de Williston, la NHTSA publicó un informe preliminar en enero de 2017 que indicaba que "la tasa de accidentes de los vehículos Tesla se redujo en casi un 40 por ciento después de la instalación de Autosteer". [213] [214] : 10 La NHTSA no publicó los datos hasta noviembre de 2018. Una empresa privada, Quality Control Systems, publicó un informe en febrero de 2019 analizando los mismos datos, afirmando que la conclusión de la NHTSA "no estaba bien fundada". [215] Parte de la verificación de datos incluyó el escrutinio de los 43.781 vehículos que, según la NHTSA, tenían instalado Autosteer; de ellos, sólo 5,714 tenían una lectura exacta del odómetro en el momento en que se instaló Autosteer y datos de despliegue de las bolsas de aire; En conjunto, los datos de esos 5.714 vehículos mostraron 32 despliegues de bolsas de aire en los 42.001.217 millas (67.594.407 km) recorridos antes de la instalación, y 64 despliegues de bolsas de aire en los 52.842.182 millas (85.041.249 km) posteriores. [216] Eso significa que la tasa de accidentes, medida por la tasa de despliegues de bolsas de aire por millón de millas recorridas, en realidad aumentó de 0,76 a 1,21 después de la instalación de Autosteer, [217] : 9 un aumento del 59%. [216]
A partir de 2018, Tesla comenzó a publicar estadísticas de seguridad trimestralmente, [218] utilizando los valores para demostrar una disminución de las tasas de accidentes al utilizar el piloto automático. [219] Los datos han sido difíciles de interpretar, ya que el recuento real de accidentes, el kilometraje inicial y la definición básica de un accidente no están disponibles. [220] : 3 Debido a esta falta de informes precisos, Green Car Reports señaló que "si bien estos números actualizados para el piloto automático son alentadores, está claro que las afirmaciones de Tesla sobre su seguridad muy superior, al menos en términos de accidentes fatales, siguen siendo vapor "Es demasiado pronto para llegar a conclusiones firmes sobre la seguridad del piloto automático". [219]
En febrero de 2020, Andrej Karpathy, director de inteligencia artificial y visión por computadora de Tesla, afirmó que los automóviles Tesla han recorrido 3 mil millones de millas en piloto automático, de los cuales mil millones se han conducido usando Navegar en piloto automático; Los coches Tesla han realizado 200.000 cambios de carril automatizados; y se han iniciado 1,2 millones de sesiones de Smart Summon con coches Tesla. [221] También afirmó que los automóviles Tesla están evitando accidentes de peatones a un ritmo de decenas a cientos por día. [222] La empresa dejó de publicar estadísticas de seguridad en 2022, pero las reanudó en enero de 2023. [223] Las primeras estadísticas de seguridad comparables utilizando la conducción autónoma total se publicaron en marzo de 2023; Tesla declaró que los vehículos que operaban bajo FSD experimentaron un choque que desplegó la bolsa de aire aproximadamente cada 3,2 millones de millas, en comparación con todos los choques con el despliegue de la bolsa de aire reportados a la policía, que ocurren aproximadamente cada 0,6 millones de millas. [224]
Además, un análisis estadístico publicado por primera vez como preimpresión en 2021 [220] y en su forma final en 2023 [225] criticó los datos de tasa de accidentes autoinformados de Tesla, ya que no tenía en cuenta la demografía de los propietarios de vehículos ni los tipos de carreteras. en el que se estaba utilizando el piloto automático. [220] : 3 Si bien la tasa de accidentes de referencia del gobierno utilizada como comparación se basó en vehículos de todas las edades, que operan en carreteras que van desde autopistas, caminos rurales y calles de la ciudad, los vehículos Tesla son relativamente más nuevos y el piloto automático se limita a operaciones en autopistas y autopistas. [218] Cuando se ajustaron según la edad del conductor y el tipo de carretera, se encontró que las tasas de accidentes del piloto automático eran casi las mismas que si se utilizaran "funciones de seguridad activa" únicamente. [220] : Figura 4
Un estudio del MIT publicado en septiembre de 2021 descubrió que el piloto automático no es tan seguro como afirma Tesla y provocó que los conductores perdieran la atención. [226] [227]
Después de que se lanzara la versión 7.0 del software Tesla en octubre de 2015 y Tesla afirmara que el piloto automático "[aliviaría] a los conductores de los aspectos más tediosos y potencialmente peligrosos de los viajes por carretera", [228] los primeros accidentes fatales que involucraron al piloto automático ocurrieron menos de un año después, en China (enero de 2016) [229] y Estados Unidos (mayo de 2016). [230] Tesla declaró que había informado inmediatamente a la NHTSA sobre el accidente de EE. UU. en mayo, pero la NHTSA no lo anunció hasta el 30 de junio de 2016, cuando se informó ampliamente como la primera muerte relacionada con el piloto automático; [231] la muerte en China no se informó en los EE. UU. hasta septiembre, [229] y Tesla declaró que los daños le impidieron confirmar si el piloto automático estaba activado. [232]
La primera muerte del piloto automático en los EE. UU. ocurrió después de que el Tesla chocó con el costado de un camión con semirremolque y pasó por debajo del remolque de ese vehículo, arrancando el invernadero . Después de la muerte, Tesla declaró que el piloto automático no pudo reconocer el remolque blanco contra un cielo brillante. [233] Musk informó que las mejoras al piloto automático en septiembre de 2016 "[harían] un uso mucho más efectivo del radar" y "muy probablemente" habrían evitado el accidente fatal. [234] A pesar de estas mejoras, el cambio a una plataforma de hardware diferente y las actualizaciones adicionales del piloto automático, se produjo otro accidente fatal en mayo de 2019 cuando un Tesla volvió a pasar por debajo del costado de un remolque. [235] Cinco años después de las primeras muertes, en 2021, Tesla comenzó la transición a "Tesla Vision" eliminando el radar de los nuevos vehículos Modelo 3 e Y; [236] En 2023, The Washington Post informó que Musk había impulsado un enfoque de solo cámara a pesar de las objeciones de los ingenieros de Tesla. [237]
Hasta abril de 2024 [actualizar], ha habido cuarenta y cuatro muertes verificadas relacionadas con la función de piloto automático de Tesla, aunque otros incidentes mortales relacionados con el uso sospechoso del piloto automático siguen pendientes. [238] Muchos de estos incidentes han recibido diversos grados de atención por parte de las publicaciones de noticias. Además, la NHTSA citó cientos de accidentes no mortales en documentos oficiales. [239] Además de no reconocer el costado de un remolque, los accidentes del piloto automático se han atribuido a la distracción del conductor, [240] la incapacidad para detectar vehículos de emergencia estacionarios, [241] y el mal uso fuera del dominio de diseño operativo declarado de "acceso controlado". carreteras [...] con una división central, marcas de carriles claras y sin tráfico cruzado". [242]
La Junta Nacional de Seguridad en el Transporte (NTSB) criticó la falta de salvaguardias del sistema de Tesla en un accidente fatal del piloto automático en California en 2018, [243] y por no prever ni prevenir el "abuso predecible" del piloto automático. [244] [245] Tras esta crítica colectiva en medio de un mayor escrutinio regulatorio de los sistemas ADAS, especialmente el piloto automático de Tesla, [246] en junio de 2021, la NHTSA anunció una orden que exige a los fabricantes de automóviles que informen sobre accidentes que involucren vehículos equipados con funciones ADAS en los Estados Unidos. [247] En abril de 2024, la NHTSA publicó los resultados de una investigación de 3 años de 956 colisiones de vehículos en las que se pensaba que el piloto automático Tesla había estado en uso y encontró que el sistema había contribuido a al menos 467 colisiones, incluidas 13 que resultaron en muertes. [248]
Musk declaró en octubre de 2015 que "aconsejamos a los conductores que mantengan las manos en el volante [cuando el piloto automático esté activado]". A pesar de esto, en ese momento se publicaron varios videos en YouTube que mostraban a los conductores usando el piloto automático para conducir con manos libres, incluida la ex esposa de Musk, Talulah Riley . [249] Se ha encontrado a otros conductores durmiendo al volante, conduciendo bajo los efectos del alcohol y realizando otras tareas inapropiadas con el piloto automático activado. [250] [251] Como se lanzó inicialmente, el sistema de piloto automático utiliza un sensor de torsión para detectar si las manos del conductor estaban en el volante [252] [253] y proporciona advertencias sonoras y visuales para que el conductor tome el volante cuando no hay torsión. Se detecta, pero varios propietarios confirmaron que podían conducir durante varios minutos con las manos libres antes de recibir una advertencia. [249] La NHTSA ordenó que al menos un dispositivo diseñado para anular el sensor de torsión suspendiera las ventas en 2018. [254] Inicialmente, Tesla decidió no agregar opciones de monitoreo del conductor más avanzadas para garantizar que los conductores permanecieran comprometidos con la tarea de conducir. [255]
A finales de mayo de 2021, una nueva versión del software permitió que las cámaras orientadas al conductor dentro de los nuevos Model 3 y Model Y (es decir, los primeros automóviles como parte del cambio a Tesla Vision) monitorearan la atención del conductor mientras usaba el piloto automático. [256] Los automóviles Model S y Model X fabricados antes de 2021 no tienen una cámara interior y, por lo tanto, físicamente no pueden ofrecer tales capacidades, aunque se espera que las versiones actualizadas tengan una. [257] Una revisión del sistema de monitoreo basado en cámaras en la cabina realizada por Consumer Reports encontró que los conductores aún podían usar el piloto automático incluso cuando miraban hacia otro lado de la carretera o usaban sus teléfonos, y también podían habilitar el software FSD beta "con la cámara cubierta. " [258]
En 2022, Musk aceptó una propuesta en Twitter de que "los usuarios con más de 10,000 millas en FSD Beta deberían tener la opción de desactivar el molesto volante", [259] diciendo que el sistema se actualizaría en enero de 2023. [260 ] [261] En abril, Musk confirmó que la molestia se estaba reduciendo gradualmente. [262] Ese junio, un pirata informático descubrió que FSD Beta tenía un modo no documentado que desactiva todo el monitoreo de controladores. [263] La NHTSA escribió una carta a Tesla bajo la autoridad de EA 22-002 el 26 de julio, señalando que el nuevo modo "podría conducir a una mayor falta de atención del conductor y a que el conductor no supervise adecuadamente el piloto automático". A la carta se adjuntó una Orden especial que solicitaba cuándo se actualizó el software con el modo oculto, los pasos o condiciones detallados necesarios para desbloquear ese modo y los motivos por los que Tesla emitió las actualizaciones. [264] Tesla respondió el 25 de agosto; [265] la respuesta se consideró confidencial y no hay una versión pública disponible. [266]
Un módulo de "eliminación de molestias" vendido como accesorio del mercado de accesorios ajusta automáticamente el volumen del volante, que se registra como entrada del volante, lo que permite a los conductores quitar las manos del volante. La evidencia anecdótica ha demostrado que el módulo es efectivo sólo para los vehículos Tesla vendidos en Estados Unidos y Canadá, lo que lleva a especular que el software de monitoreo del conductor es diferente según la región. [267]
Es posible que el piloto automático no detecte vehículos estacionados; el manual dice: "El control de crucero atento al tráfico no puede detectar todos los objetos y no puede frenar/desacelerar para vehículos estacionarios, especialmente en situaciones en las que conduce a más de 50 mph (80 km/h) y un vehículo al que está siguiendo se sale de su camino de conducción y en su lugar hay un vehículo u objeto parado frente a usted". [268] Esto ha provocado numerosos accidentes con vehículos de emergencia detenidos. [269] [270] [271] [272]
En una encuesta de Bloomberg de 2019, cientos de propietarios de Tesla informaron comportamientos peligrosos con el piloto automático, como frenado fantasma, desviarse del carril o no detenerse ante peligros en la carretera. [273] Los usuarios del piloto automático también han informado que el software falla y se apaga repentinamente, colisiones con barreras de salida de la rampa, fallas de radar, desvíos inesperados, seguimiento cercano y cambios de velocidad desiguales. [274]
Ars Technica señala que el sistema de frenos tiende a iniciarse más tarde de lo que algunos conductores esperan. [275] Un conductor afirmó que el piloto automático de Tesla no frenó, lo que provocó colisiones, pero Tesla señaló que el conductor desactivó el control de crucero del automóvil antes del accidente. [276] El sistema de frenado automático de emergencia (AEB) también se inicia antes de lo que algunos conductores esperan debido a un error de software, lo que provocó un retiro del mercado en 2021 por activación falsa del sistema AEB. [277]
Ars Technica también señaló que, si bien los cambios de carril pueden ser semiautomáticos (si el piloto automático está activado y el vehículo detecta automóviles que se mueven lentamente o si es necesario permanecer en la ruta, el automóvil puede cambiar de carril automáticamente sin la intervención del conductor), el conductor Debe demostrarle al coche que está prestando atención tocando el volante antes de que el coche haga el cambio. [278] En 2019, Consumer Reports señaló que la función de cambio automático de carril de Tesla es "mucho menos competente que un conductor humano". [279]
La mayoría de los vehículos de último modelo, incluidos los Tesla, están equipados con registradores de datos de eventos que recopilan aproximadamente cinco segundos de datos para ayudar en las investigaciones de accidentes, incluida la velocidad, la aceleración, el uso de los frenos, los movimientos de la dirección y el estado de las funciones de asistencia al conductor; Los vehículos Tesla registran permanentemente estos datos como archivos de "registro de puerta de enlace" en una tarjeta microSD en la Unidad de control de medios, a una velocidad de aproximadamente 5 veces por segundo ( hercios o Hz). Los archivos de registro de la puerta de enlace se cargan en Tesla cuando el vehículo se conecta a una red Wi-Fi. [280]
La computadora del piloto automático almacena imágenes (para todos los vehículos) y videos (para vehículos del año de modelo 2016 y posteriores) junto con datos de conducción similares a los capturados en los archivos de registro de la puerta de enlace con una resolución temporal más alta (hasta 50 Hz) y los carga en Tesla periódicamente. . Estas "instantáneas" se eliminan localmente después de cargarse. Tesla ha guardado silencio sobre sus políticas de retención de datos. [280] Los datos instantáneos siempre se capturan cuando el vehículo choca (definido como el despliegue de las bolsas de aire) y se cargan a través de una red celular 4G . [280] A veces también se capturan instantáneas de otros eventos definidos por Tesla.
Incluso cuando el piloto automático no proporciona activamente controles de dirección, acelerador y freno, los modelos Tesla de 2016 y posteriores operan el piloto automático en "Modo Sombra". [281] Cuando las entradas de control generadas por el piloto automático en modo sombra no coinciden con las del conductor humano, el vehículo puede registrar una instantánea para ayudar a entrenar el sistema, después de lo cual el equipo del piloto automático puede revisar los datos. [282] Como explica Karpathy, Tesla puede implementar "detectores" de software adicionales activados por situaciones específicas identificadas por datos instantáneos, que luego cargan la cámara y otros datos a Tesla cuando se detectan situaciones similares. Estos datos se utilizan para revisar los detectores existentes. [282]
Para los Tesla fabricados después de mediados de 2017, la computadora del piloto automático también registra datos de "rastro", incluida la ruta del automóvil determinada por las "migas de pan" del GPS durante todo el viaje. Un viaje comienza cuando el vehículo cambia de Estacionamiento a Conducir y finaliza cuando regresa a Estacionamiento. Los datos del sendero también incluyen la velocidad del vehículo, el tipo de carretera utilizada y el estado del piloto automático. Al igual que las instantáneas, estos datos de seguimiento se eliminan localmente después de cargarse en Tesla. [280] Los datos del recorrido deben anonimizarse eliminando el número de identificación del vehículo (VIN) y asignando un identificador temporal, pero el mismo identificador temporal se puede asignar a un solo vehículo durante varias semanas. [283]
Según las políticas de privacidad de Tesla, [284] la empresa no vende datos de clientes ni de vehículos, pero puede compartir los datos con entidades gubernamentales. [283] La Fundación Mozilla clasificó a Tesla como la peor de 25 marcas de automóviles, recibiendo puntuaciones inferiores al estándar en todos los criterios de privacidad y seguridad de la fundación. [285] [286]
Tesla Vision depende del "equipo de etiquetado del piloto automático", [287] que ve videoclips cortos grabados por las cámaras del vehículo y enviados a Tesla, y que etiquetan señales y objetos visibles, entrenando al intérprete de visión artificial. [237] [288]
El etiquetado de datos fue manejado por primera vez por una empresa de subcontratación sin fines de lucro llamada Samasource , que inicialmente proporcionó 20 trabajadores en Nairobi , Kenia. [289] El equipo de Nairobi creció a 400 trabajadores en 2016, pero Karpathy declaró más tarde que "la calidad [de su trabajo] no era sorprendente" y Tesla comenzó a contratar empleados para el etiquetado de datos en San Mateo, California . [289]
En abril de 2023, se reveló que los empleados de etiquetado de San Mateo habían compartido clips internamente entre ellos, incluidas grabaciones de áreas de propiedad privada como garajes, así como accidentes, incidentes de violencia en la carretera y videos de memes anotados con "subtítulos o comentarios divertidos". ". Los ex empleados de Tesla describieron el ambiente de la oficina de San Mateo como "libre" y señalaron que "las personas que fueron promovidas a puestos de liderazgo compartieron muchos de estos [clips] divertidos y ganaron notoriedad por ser divertidos". En un caso, el accesorio sumergible Lotus Esprit que aparece en la película de James Bond La espía que me amó , que Elon Musk había comprado en 2013 y almacenado en su garaje, fue grabado y compartido por miembros del equipo de etiquetado. Debido a que compartir estos clips aparentemente era para entretenimiento y no estaba relacionado con el entrenamiento del piloto automático, Carlo Plitz, un abogado de privacidad de datos, señaló que "sería difícil encontrar una justificación legal" para hacerlo. [289] Después del cierre de la oficina de San Mateo en junio de 2022, el equipo de etiquetado se mudó a Buffalo, Nueva York , [288] donde Tesla tiene un total de 675 empleados, cientos de los cuales son etiquetadores. [289]
En 2015, un portavoz de la NHTSA dijo que "cualquier vehículo autónomo tendría que cumplir con los estándares federales de seguridad de vehículos de motor aplicables" y la NHTSA "tendrá las políticas y regulaciones apropiadas para garantizar la seguridad de este tipo de vehículos". [290] El 1 de febrero de 2021, Robert Sumwalt , presidente de la NTSB, escribió una carta a la NHTSA sobre el "Marco para la seguridad de los sistemas de conducción automatizados" de esa agencia, que se había publicado para comentarios en diciembre de 2020. [291] [292] [293] En la carta, Sumwalt recomendó que la NHTSA incluyera el monitoreo de usuarios como parte del marco de seguridad y reiteró que "la falta de salvaguardias apropiadas de Tesla y la inacción de la NHTSA" para actuar según la recomendación de la NTSB "de que la NHTSA desarrolle un método para verificar que los fabricantes de Los vehículos equipados con Nivel 2 incorporan sistemas de protección que limitan el uso de sistemas automatizados de control de vehículos a las condiciones para las que fueron diseñados" fue una de las causas que contribuyeron al accidente fatal de un vehículo en Delray Beach, Florida, en 2019. [292] : 7
La NHTSA anunció la Orden General Permanente (SGO) 2021-01 el 29 de junio de 2021. Según esta Orden General, los fabricantes y operadores de vehículos equipados con sistemas avanzados de asistencia al conductor (ADAS, SAE J3016 Nivel 2) o sistemas de conducción automatizados (ADS, SAE Nivel 3 o superior) son necesarios para informar fallos. [247] Se emitió una orden enmendada que entró en vigor el 12 de agosto de 2021. [294] Los informes se limitan a accidentes en los que el ADAS o ADS se activó dentro de los 30 segundos anteriores al accidente y que involucran una lesión que requiere hospitalización, una muerte, un vehículo remolcado fuera de la escena, el despliegue de una bolsa de aire o la participación de un "usuario vulnerable de la vía" (por ejemplo, peatón o ciclista); Estos accidentes deben informarse a la NHTSA dentro de un día calendario y se requiere un informe actualizado dentro de los 10 días calendario. [295] : 13–14 El 16 de agosto de 2021, después de informes de 17 heridos y una muerte en accidentes automovilísticos que involucraron vehículos de emergencia, los reguladores de seguridad automotriz de EE. UU. abrieron una investigación de seguridad formal (PE 21-020) en el sistema de asistencia al conductor Autopilot de Tesla. . [296]
Los datos iniciales de SGO 2021-01 se publicaron en junio de 2022; 12 fabricantes informaron 392 accidentes que involucraron ADAS (Nivel 2) entre julio de 2021 y el 15 de mayo de 2022. De esos 392 accidentes, 273 fueron vehículos Tesla, de aproximadamente 830.000 vehículos Tesla equipados con ADAS. Honda tuvo el siguiente total más alto, con 90 accidentes reportados en aproximadamente 6 millones de vehículos Honda equipados con ADAS. [297] La NHTSA dijo que las cifras de Tesla pueden parecer altas porque tiene informes de accidentes en tiempo real, mientras que otros fabricantes de automóviles no los tienen, por lo que sus informes de accidentes pueden entregarse más lentamente o no informarse en absoluto. [298] En conjunto, cinco personas murieron y seis más resultaron gravemente heridas en los 392 accidentes de ADAS que se informaron. [297] Según datos actualizados, para junio de 2023, los conductores de Tesla que utilizaban el piloto automático habían estado involucrados en 736 accidentes y 17 muertes en total desde 2019; Se habían producido 11 muertes desde mayo de 2022. [299] [300]
SGO 2021-01 también se aplicó a los fabricantes de vehículos equipados con ADS (Niveles 3 a 5); 25 fabricantes de ADS informaron 130 accidentes en total desde la publicación de datos inicial en junio de 2022, liderados por Waymo (62), Transdev Alternative Services (34) y Cruise LLC (23). En la mayoría de los casos, estos accidentes involucraron que el vehículo ADS fuera golpeado por la parte trasera; sólo se informó de una lesión grave y en 108 de los 130 accidentes no hubo heridos. [297]
El piloto automático de Tesla fue objeto de una demanda colectiva presentada en 2017 que afirmaba que el sistema de piloto automático mejorado de segunda generación era "peligrosamente defectuoso". [301] La demanda se resolvió en 2018; Los propietarios que en 2016 y 2017 pagaron $5,000 (equivalente a $6,348 en 2023) para equipar sus autos con el software Autopilot actualizado fueron compensados entre $20 y $280 por el retraso en la implementación de Autopilot 2.0. [302]
En 2020, un tribunal alemán dictaminó en una demanda presentada en 2019 por el Centro para la Lucha contra la Competencia Desleal
que Tesla había violado las normas publicitarias con la comercialización de Autopilot. [303] [304] [305] Tras la apelación, esa decisión fue revocada en 2021 por un tribunal superior con la condición de que Tesla aclarara las capacidades de Autopilot en su sitio web. [306] [307]En julio de 2022, un tribunal alemán concedió a una demandante la mayor parte de los 112.000 euros que había pagado por un Model X, basándose en parte en un informe técnico que demostraba que el piloto automático no reconocía los obstáculos de forma fiable y activaba innecesariamente sus frenos, lo que podía provocar un "peligro masivo" en las ciudades; Los abogados de Tesla argumentaron sin éxito que el piloto automático no estaba diseñado para el tráfico urbano. [308]
En septiembre de 2022, se presentó una demanda colectiva ante el Tribunal de Distrito de EE. UU. (Norte de California) alegando que "durante años, Tesla ha comercializado de manera engañosa y engañosa su tecnología ADAS como tecnología de conducción autónoma bajo varios nombres, incluidos 'Autopilot', 'Enhanced Autopilot ,' y 'Capacidad total de conducción autónoma ' ", añadiendo que Tesla representaba "que estaba perpetuamente en la cúspide de perfeccionar esa tecnología y finalmente cumplir su promesa de producir un coche totalmente autónomo", mientras que "Tesla conocía desde hace años su Las declaraciones sobre su tecnología ADAS fueron engañosas y engañosas, pero la compañía las hizo de todos modos". [309] [310] Tesla presentó una moción en noviembre de 2022 para desestimar el caso, defendiendo las acciones de la compañía como "simple fracaso en lograr un objetivo aspiracional a largo plazo [de un automóvil totalmente autónomo] [y] no fraude". , basando la moción en la cláusula arbitral privada del contrato de compra firmado por cada comprador. [311] [312]
Los accionistas de Tesla presentaron una segunda demanda colectiva en el mismo tribunal a finales de febrero de 2023. [313] La demanda alega que los demandados "habían exagerado significativamente la eficacia, viabilidad y seguridad de las tecnologías de piloto automático y FSD [de Tesla]" y esas mismas Los sistemas "crearon un riesgo grave de accidentes y lesiones", lo que "sometió a Tesla a un mayor riesgo de escrutinio y medidas de aplicación de la ley regulatorias y gubernamentales", vinculando múltiples accidentes específicos con disminuciones documentadas en los precios de las acciones. [314]
En abril de 2023, Tesla fue declarada no responsable en una demanda presentada en 2020 por un conductor que demandó por daños y perjuicios después de afirmar que el sistema de piloto automático guió su Tesla Model S hacia una acera, lo que provocó el despliegue de una bolsa de aire y lesiones faciales. [315] Los miembros del jurado explicaron en entrevistas posteriores al juicio que "el piloto automático nunca confesó ser un piloto autónomo. No es un automóvil sin conductor... [Tesla] se mantuvo firme en cuanto a que un conductor debe estar siempre atento". [316]
Los herederos de dos conductores que murieron en 2019 mientras utilizaban el piloto automático, uno en California y otro en Florida, han presentado demandas adicionales. En el caso de California, que no se había informado anteriormente, Tesla argumentó que el conductor había consumido alcohol y no está claro si el piloto automático estaba activado; [317] Los abogados del demandante alegaron que un defecto conocido en el sistema de piloto automático había provocado que el vehículo se desviara de una carretera a 65 mph (105 km/h) y chocara contra una palmera. [318] Tesla prevaleció en ese caso, y el jurado votó 9 a 3 en octubre de 2023 que no había ningún defecto de fabricación. [319] Para el caso de Florida, el juez rechazó la moción de desestimación de Tesla, concluyendo que no podía "imaginar cómo algunos consumidores comunes y corrientes no tendrían alguna creencia de que los vehículos Tesla eran capaces de conducirse solos con las manos libres", [320] citando " evidencia razonable" que demostraba que Tesla había "participado en una estrategia de marketing que presentaba los productos como autónomos" y que las declaraciones de Musk "tuvieron un efecto significativo en la creencia sobre las capacidades de los productos". [77]
No creo que algo deba llamarse, por ejemplo, piloto automático, cuando la letra pequeña dice que es necesario tener las manos en el volante y los ojos en la carretera en todo momento.
— Pete Buttigieg , secretario de Transporte de EE. UU. , entrevista con Associated Press , mayo de 2023 [321]
El Centro de Vigilancia del Consumidor y Seguridad Automotriz escribió a la Comisión Federal de Comercio (FTC) en 2018, pidiéndoles que abrieran una investigación sobre la comercialización de Autopilot. La carta decía que "las prácticas de marketing y publicidad de Tesla, combinadas con las declaraciones públicas de Elon Musk, han hecho que sea razonable que los propietarios de Tesla crean, y actúen según esa creencia, que un Tesla con piloto automático es un vehículo autónomo capaz de 'conducirse solo'. ' ". [322] Los grupos renovaron su apelación a la FTC y agregaron el DMV de California en 2019, [323] señalando que "Tesla sigue siendo el único fabricante de automóviles que describe sus vehículos de Nivel 2 como 'autónomos' y el nombre de su conductor El conjunto de funciones de asistencia, Autopilot, connota total autonomía". [324] Los senadores estadounidenses Ed Markey (D-MA) y Richard Blumenthal (D-CT) se hicieron eco de estas preocupaciones ante la FTC en 2021. [325]
Un estudio del IIHS de 2019 demostró que el nombre "Piloto automático" hace que más conductores perciban erróneamente comportamientos como enviar mensajes de texto o tomar una siesta para estar seguros, en comparación con sistemas similares de asistencia al conductor de nivel 2 de otras compañías automotrices. [326] En 2020, los expertos en seguridad del Reino Unido calificaron el piloto automático de Tesla como "especialmente engañoso". [327]
En 2020, el ingeniero de usabilidad Dixon publicó un artículo en el que calificaba de exageradas las descripciones de Tesla de las capacidades del piloto automático y FSD. [328]
En 2021, tras más de una docena de accidentes con el piloto automático (algunos de ellos mortales), el Departamento de Justicia de EE. UU. (DOJ) inició una investigación criminal para determinar si Tesla engañó a los consumidores, inversores y reguladores sobre el piloto automático. [329] Tesla confirmó que el Departamento de Justicia había solicitado documentos relacionados con Autopilot y FSD en su presentación 10-K para 2022. [330] La Comisión de Bolsa y Valores también abrió una investigación civil independiente sobre las declaraciones hechas por Tesla y sus ejecutivos sobre Autopilot. [331] [332]
En julio de 2022, el DMV de California presentó dos quejas ante la Oficina de Audiencias Administrativas del estado que alegaban que Tesla "hizo o difundió declaraciones que son falsas o engañosas y no se basan en hechos" relacionadas tanto con las "tecnologías de piloto automático como de conducción totalmente autónoma". [333] [334] [335] En agosto de 2022, Tesla solicitó una audiencia para presentar su defensa. [336]
En septiembre de 2022, el gobernador de California, Gavin Newsom, firmó el proyecto de ley estatal SB 1398, [337] que entró en vigor el 1 de enero de 2023 y prohíbe a cualquier fabricante o distribuidor de automóviles con funciones parciales de automatización del conductor utilizar lenguaje engañoso para anunciar sus vehículos como autónomos, como denominando al sistema "Full Self-Driving". [338] [339]
Según un documento publicado en junio de 2021, la NHTSA ha iniciado al menos 30 investigaciones sobre accidentes de Tesla que se creía que involucraban el uso del piloto automático, y algunas involucraron muertes. [340] [341]
En agosto de 2021, la Oficina de Investigación de Defectos (ODI) de la NHTSA abrió una evaluación preliminar (PE) designada PE 21-020 y publicó una lista de once accidentes que involucraron vehículos Tesla que chocaron con vehículos de emergencia estacionarios; En cada caso, la NHTSA confirmó que el piloto automático o el control de crucero consciente del tráfico estaban activos durante la aproximación a los accidentes. De los once accidentes, siete provocaron diecisiete heridos en total y uno provocó una muerte. El alcance de la evaluación planificada del sistema de piloto automático abordó específicamente los sistemas utilizados para monitorear y hacer cumplir la participación del conductor. [342] En septiembre de 2021, la NHTSA agregó un duodécimo accidente en Orlando desde agosto de 2021 a la lista de investigación. [343]
La NHTSA envió una solicitud de información relacionada con PE 21-020 al director de calidad de campo de Tesla en agosto de 2021. La respuesta debía presentarse antes del 22 de octubre de 2021. [344] [345] En septiembre de 2021, la NHTSA envió una solicitud de información a Tesla y otros fabricantes de automóviles para obtener datos ADAS comparativos. [346] [347] [348] Después de que Tesla implementó su Actualización de detección de luz de emergencia en septiembre de 2021, la NHTSA envió una carta de seguimiento a Tesla en octubre de 2021 solicitando "una cronología de eventos, investigaciones internas y estudios" que llevaron a la implementación de la actualización, [349] ya que potencialmente solucionaba un defecto de seguridad, que requiere un retiro formal. [350]
En febrero de 2022, NHTSA ODI abrió una segunda evaluación preliminar (PE 22-002) para el "frenado fantasma" en los vehículos Tesla Model 3 y Model Y 2021-2022. [363] PE 22-002 se correlacionó con la retirada del hardware de radar de esos vehículos en mayo de 2021; En el momento en que se abrió PE 22-002, la NHTSA no tenía conocimiento de ningún accidente o lesión resultante de las quejas. [364] Según algunas quejas, mientras se utiliza el piloto automático, "puede ocurrir una desaceleración rápida sin previo aviso, al azar y, a menudo, repetidamente en un solo ciclo de conducción". [363] El Washington Post también publicó un artículo que detalla el aumento de quejas ante la NHTSA sobre falsos positivos en su sistema automático de frenado de emergencia. [365] En mayo de 2022, la NHTSA había recibido 758 informes de frenado inesperado cuando el piloto automático estaba en uso y solicitó que Tesla respondiera las preguntas antes del 20 de junio de 2022. [366] [367]
También en junio de 2022, NHTSA ODI actualizó PE 21-020 a un análisis de ingeniería (EA) y lo designó como EA 22-002, cubriendo aproximadamente 830.000 vehículos Tesla vendidos entre 2014 y 2022. [353] Los datos de PE 21-020 tenían se ha complementado con solicitudes de información previas a Tesla (19 de abril de 2021) y la Orden General Permanente (SGO) 2021-01, [368] emitida el 29 de junio de 2021 [369] y modificada el 5 de agosto de 2021, [353] que requería que los fabricantes de sistemas avanzados de asistencia a la conducción para informar rápidamente los accidentes a la NHTSA. [370]
La investigación se amplió a un análisis de ingeniería después de que la NHTSA revisó datos de 191 accidentes que involucraron el uso de piloto automático o tecnologías ADAS Nivel 2 relacionadas (control de crucero consciente del tráfico, dirección automática, navegación en piloto automático o cambio automático de carril). [373] 85 fueron eliminados porque había otros conductores involucrados o no había datos suficientes. [373] Se encontró que en aproximadamente 1 ⁄ 2 de los 106 accidentes restantes, el conductor no respondía suficientemente a la tarea de conducir, y aproximadamente 1 ⁄ 4 de los 106 se debieron a la operación del piloto automático fuera de carreteras de acceso limitado, o cuando la tracción y las condiciones climáticas podrían interferir. [373] Existió telemetría detallada para 43 de los 106 accidentes; de ellos, los datos de 37 indicaron que las manos del conductor estaban en el volante en el último segundo antes de la colisión. [353]
El incidente de Laguna Beach identificado inicialmente en PE 21-020 fue eliminado de EA 22-002 ya que se encontró que "el vehículo golpeado estaba estacionado fuera del tráfico y sin luces encendidas". [353] Se agregaron seis incidentes, lo que hace un total de dieciséis accidentes en los que un Tesla chocó contra vehículos de emergencia estacionarios, incluido el incidente de agosto de 2021 en Orlando. [353] En estos 16 incidentes, la NHTSA encontró que la mayoría resultó en advertencias de colisión frontal y aproximadamente la mitad resultó en frenado automático de emergencia. [353] En promedio, cuando el video estaba disponible, los conductores habrían podido ver un impacto potencial ocho segundos antes de la colisión, pero el piloto automático abortaría el control "menos de un segundo antes del primer impacto", [374] lo que puede no Ha habido tiempo suficiente para que el conductor asuma el control total. [375] Además, los datos sugieren que el requisito de Tesla de que los conductores con piloto automático tengan las manos en el volante en todo momento puede no ser suficiente para garantizar que el conductor esté prestando atención a la tarea de conducción. [376] [373]
La NHTSA envió una segunda carta para EA 22-002 a Tesla en agosto de 2022, que incluía solicitudes de una descripción de la función de la cámara orientada al conductor, la identificación de todas las demandas o arbitrajes resultantes del uso del piloto automático, incluidas transcripciones completas de las declaraciones, y "la explicación y evidencia de ingeniería y seguridad para las decisiones de diseño con respecto a la aplicación de la participación/atención del conductor". [377] Tesla presentó una respuesta en septiembre. En julio de 2023 se envió una carta de seguimiento solicitando datos actuales y actualizaciones de la respuesta anterior. [378] A partir de octubre de 2023, la NHTSA transmitió sus conclusiones preliminares a Tesla durante varias reuniones, seguidas de que Tesla realizara un retiro voluntario el 5 de diciembre de 2023, para proporcionar una actualización de software inalámbrica para "incorporar controles y alertas adicionales". .. para alentar aún más al conductor a cumplir con su responsabilidad de conducción continua siempre que se active Autosteer... [y proporcionar] controles adicionales al activar Autosteer y mientras se utiliza la función fuera de las autopistas de acceso controlado", aunque no coincide con el análisis de la NHTSA. [379] Al presentar su Informe de información de defectos asociado con el retiro del mercado de diciembre de 2023, Tesla concluyó que "en ciertas circunstancias, los controles del sistema del piloto automático pueden ser insuficientes para un sistema de asistencia al conductor que requiere supervisión constante por parte de un conductor humano". [380]
EA 22-002 se cerró en abril de 2024. [381] ODI concluyó que su "análisis de los datos de accidentes indica que, antes [del retiro del mercado de diciembre de 2023], el diseño del piloto automático no era suficiente para mantener la participación de los conductores", citando datos que muestran que en En 59 de 109 accidentes, los peligros eran visibles durante al menos cinco segundos antes de la colisión. Además, ODI agregó que, basándose en la telemetría del vehículo, "las advertencias proporcionadas por el piloto automático cuando se activaba la dirección automática no garantizaban adecuadamente que los conductores mantuvieran su atención en la tarea de conducir", lo que demuestra que en aproximadamente el 80% de 135 incidentes, el frenado y/o la dirección no no ocurrir hasta menos de un segundo antes de una colisión. [380] Una comparación con ADAS de nivel 2 similares llevó a ODI a concluir que "Tesla [es] un caso atípico en la industria en su enfoque de la tecnología L2 al no combinar un sistema débil de participación del conductor con las capacidades operativas permisivas del piloto automático". [380]
Como resultado, ODI abrió inmediatamente una segunda investigación sobre la efectividad del retiro del mercado de diciembre de 2023, [382] señalando "preocupaciones [identificadas] debido a eventos de choque posteriores a la reparación y resultados de las pruebas preliminares de la NHTSA de vehículos reparados. Además, Tesla ha declarado que una parte del remedio requiere que el propietario opte por participar y permite al conductor revertirlo fácilmente. Tesla también ha implementado actualizaciones sin remedio para abordar problemas que parecen relacionados con las preocupaciones de ODI según EA22002". [383]
Tesla emitió una "Actualización de detección de luces de emergencia" para el piloto automático en septiembre de 2021 cuyo objetivo era detectar "luces de emergencia intermitentes del vehículo en condiciones de poca luz y luego [responder] a dicha detección con alertas del conductor y cambios en la velocidad del vehículo mientras el piloto automático está activado". , después de que la NHTSA abriera PE 21-020 el mes anterior. Después de que se emitió la actualización, la NHTSA envió una carta a Tesla preguntando por qué la actualización no se había realizado bajo el proceso de retirada, ya que "cualquier fabricante que emita una actualización inalámbrica que mitigue un defecto que represente un riesgo irrazonable para la seguridad de los vehículos de motor está obligado a presentar oportunamente un aviso de retirada adjunto a la NHTSA". [384] [385]
Tesla emitió un retiro del mercado de 11,728 vehículos en octubre de 2021 debido a un error de comunicación que podría provocar falsas advertencias de colisión frontal o activaciones inesperadas del sistema automático de frenado de emergencia. El error fue introducido por la actualización inalámbrica del firmware versión 10.3 del software Beta Full Self-Driving y fue revertido por otra actualización inalámbrica el mismo mes. [386] Los vehículos retirados del mercado se revirtieron a 10.2 y luego se actualizaron a 10.3.1. [277]
FSD 10.3 también se lanzó con diferentes perfiles de conducción para controlar el comportamiento del vehículo, denominados 'Chill', 'Promedio' y 'Asertivo'; El perfil 'Asertivo' atrajo cobertura negativa en enero de 2022 por anunciar que "puede realizar paradas continuas " (pasar señales de alto a hasta 5,6 mph), cambiar de carril con frecuencia y reducir la distancia de seguimiento . [387] [388] El 1 de febrero, después de que la NHTSA advirtiera a Tesla que no detenerse ante una señal de alto puede aumentar el riesgo de un accidente y amenazara con "acción inmediata" por "elecciones de diseño intencionales que no sean seguras", [389] Tesla retiró casi 54.000 vehículos para desactivar el comportamiento de parada rodante, [390] eliminando la función con una actualización de software inalámbrica. [391]
El 16 de febrero de 2023, Tesla emitió un aviso de retirada del mercado para todos los vehículos equipados con el software beta de conducción autónoma total, incluidos los Model S y X 2016-23; 2017–23 Modelo 3; y el Modelo Y 2020-23, que cubre 362,758 vehículos en total. [392] La NHTSA identificó cuatro situaciones de tráfico específicas en una carta enviada a Tesla el 25 de enero de [393] [394] y Tesla decidió voluntariamente realizar un retiro del mercado para abordar esas situaciones, [392] que incluyen vehículos que operan bajo FSD Beta y realizan el siguientes acciones inapropiadas: [393]
El retiro del mercado, que cubre todas las versiones de FSD Beta, [393] se realizó mediante la publicación de una actualización de software en marzo de 2023. [157] [392]
El 12 de diciembre de 2023, tras una investigación de dos años por parte de la NHTSA , [395] Tesla emitió un retiro más amplio de todos los vehículos equipados con cualquier versión de Autosteer, incluido el Modelo S 2012-2023; Modelo X 2016-2023; 2017-2023 Modelo 3; y el Modelo Y 2020-2023, que cubre 2.031.220 vehículos en total. [379] La NHTSA concluyó que los controles de Autosteer no eran suficientes para evitar el uso indebido y no garantizaban que los conductores mantuvieran "la responsabilidad continua y sostenida de la operación del vehículo". [379] Se implementó una actualización de software inalámbrica en un subconjunto de vehículos tras la publicación del aviso de retirada, con planes de implementarla en la flota restante en una fecha posterior, lo que hizo que las alertas visuales fueran más prominentes dentro de la interfaz de usuario. , simplificó el proceso para activar y desactivar Autosteer, agregó controles adicionales cuando Autosteer se usa cerca de intersecciones o en calles que no son caminos de acceso limitado y deshabilitó Autosteer si el conductor repetidamente no demostró responsabilidad de conducción mientras usaba la función. [379] En febrero de 2024, Consumer Reports afirmó que sus pruebas de la actualización del retiro del mercado del piloto automático de Tesla no abordaron completamente las preocupaciones de seguridad planteadas por la NHTSA, diciendo que el retiro "aborda inconvenientes menores en lugar de solucionar los problemas reales". [396]
En el cuarto trimestre [de 2023], registramos un accidente por cada 5,39 millones de millas recorridas en las que los conductores utilizaban la tecnología de piloto automático. Para los conductores que no utilizaban la tecnología de piloto automático, registramos un accidente por cada 1,00 millón de millas recorridas. En comparación, los datos más recientes disponibles de NHTSA y FHWA (de 2022) muestran que en Estados Unidos hubo un accidente automovilístico aproximadamente cada 670.000 millas.
Nuestro objetivo con la introducción de este nuevo hardware y software no es permitir los coches sin conductor, que todavía están a años de convertirse en una realidad. Nuestro sistema se llama Autopilot porque es similar a los sistemas que utilizan los pilotos para aumentar la comodidad y la seguridad cuando las condiciones son despejadas. El piloto automático de Tesla es una forma de aliviar a los conductores de los aspectos más aburridos y potencialmente peligrosos del viaje por carretera, pero el conductor sigue siendo responsable y, en última instancia, tiene el control del automóvil.
Si bien el piloto automático lo libera de manipular manualmente los controles de vuelo, debe mantener vigilancia sobre el sistema para garantizar que realiza las funciones previstas y que la aeronave permanece dentro de los parámetros aceptables de altitudes, velocidades y límites del espacio aéreo.
"Dentro de 2 a 3 meses", Tesla espera... la nueva validación del software para las funciones del piloto automático.
Chris: El momento en que alguien podrá comprar uno de tus autos y, literalmente, simplemente tomar las manos del volante, irse a dormir, despertarse y descubrir que ha llegado. ¿Qué tan lejos está eso? ¿Para hacerlo de forma segura? Elon: Eso es alrededor de dos años.
{{cite web}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )El control de crucero sensible al tráfico está diseñado principalmente para conducir en caminos rectos y secos, como autopistas y autopistas. No debe usarse en las calles de la ciudad.
Si bien Tesla informó explícitamente a los propietarios del Model S que el piloto automático solo debe usarse en carreteras de acceso limitado, no incorporó protecciones contra su uso en otros tipos de carreteras.
No utilice Autosteer en calles de la ciudad, en zonas de construcción o en áreas donde puedan haber ciclistas o peatones presentes.
Los datos de rendimiento muestran que el Tesla siguió a varios vehículos líderes en tráfico pesado durante minutos antes del accidente. Cuando el último vehículo líder cambió de carril, 3 a 4 segundos antes del accidente, revelando el camión de bomberos en el camino del Tesla, el sistema no pudo detectar inmediatamente el peligro y aceleró el Tesla hacia el camión parado. Cuando el sistema detectó el vehículo parado y le dio al conductor una advertencia de colisión (0,49 segundos antes del impacto), la colisión era inminente y la advertencia era demasiado tarde, especialmente para un conductor distraído.
{{cite web}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite press release}}
: Mantenimiento CS1: otros ( enlace )24011.5(b): Un fabricante o distribuidor no nombrará ninguna característica de automatización de conducción parcial, ni describirá ninguna característica de automatización de conducción parcial en materiales de marketing, utilizando un lenguaje que implique o de otro modo llevaría a una persona razonable a creer, que la característica permite la vehículo para funcionar como un vehículo autónomo, como se define en la Sección 38750, o de otra manera tiene una funcionalidad que en realidad no está incluida en la característica. Una violación de esta subdivisión se considerará publicidad engañosa a los efectos de la Sección 11713.
24011.5(c): Tal como se utiliza en esta sección, "función de automatización de conducción parcial" tiene el mismo significado que "automatización de conducción parcial de nivel 2" en la Sociedad. Estándar J3016 de Ingenieros Automotrices (SAE) (abril de 2021).
URL directa