stringtranslate.com

Localización y mapeo simultáneos

Stanley, ganador del DARPA Grand Challenge 2005, realizó SLAM como parte de su sistema de conducción autónoma.
Un mapa generado por un Robot SLAM

La localización y mapeo simultáneos ( SLAM ) es el problema computacional de construir o actualizar un mapa de un entorno desconocido y al mismo tiempo realizar un seguimiento de la ubicación de un agente dentro de él. Si bien inicialmente esto parece ser el problema del huevo o la gallina , se conocen varios algoritmos para resolverlo en un tiempo, al menos aproximadamente, manejable para ciertos entornos. Los métodos de solución aproximada populares incluyen el filtro de partículas , el filtro de Kalman extendido , la intersección de covarianza y GraphSLAM. Los algoritmos SLAM se basan en conceptos de geometría computacional y visión por computadora , y se utilizan en navegación de robots , mapeo robótico y odometría para realidad virtual o realidad aumentada .

Los algoritmos SLAM se adaptan a los recursos disponibles y no apuntan a la perfección sino al cumplimiento operativo. Los enfoques publicados se emplean en vehículos autónomos , vehículos aéreos no tripulados , vehículos submarinos autónomos , vehículos exploradores planetarios , robots domésticos más nuevos e incluso en el interior del cuerpo humano.

Descripción matemática del problema.

Dada una serie de controles y observaciones de sensores en pasos de tiempo discretos , el problema SLAM consiste en calcular una estimación del estado del agente y un mapa del entorno . Todas las cantidades suelen ser probabilísticas, por lo que el objetivo es calcular [1]

La aplicación de la regla de Bayes proporciona un marco para actualizar secuencialmente las ubicaciones posteriores, dado un mapa y una función de transición .

De manera similar, el mapa se puede actualizar secuencialmente mediante

Como muchos problemas de inferencia, las soluciones para inferir las dos variables juntas se pueden encontrar, hasta una solución óptima local, alternando actualizaciones de las dos creencias en forma de algoritmo de maximización de expectativas .

Algoritmos

Las técnicas estadísticas utilizadas para aproximar las ecuaciones anteriores incluyen filtros de Kalman y filtros de partículas (el algoritmo detrás de la localización de Monte Carlo). Proporcionan una estimación de la distribución de probabilidad posterior para la pose del robot y para los parámetros del mapa. Los métodos que se aproximan de forma conservadora al modelo anterior utilizando la intersección de covarianzas pueden evitar la dependencia de supuestos de independencia estadística para reducir la complejidad algorítmica para aplicaciones a gran escala. [2] Otros métodos de aproximación logran una eficiencia computacional mejorada mediante el uso de representaciones de incertidumbre simples de región limitada. [3]

Las técnicas de membresía de conjuntos se basan principalmente en la propagación de restricciones de intervalo . [4] [5] Proporcionan un conjunto que incluye la pose del robot y un conjunto de aproximación del mapa. El ajuste de paquete , y más generalmente la estimación máxima a posteriori (MAP), es otra técnica popular para SLAM que utiliza datos de imágenes, que estima conjuntamente poses y posiciones de puntos de referencia, aumentando la fidelidad del mapa, y se utiliza en sistemas SLAM comercializados como ARCore de Google, que reemplaza su Plataforma informática de realidad aumentada anterior llamada Tango, anteriormente Proyecto Tango . Los estimadores MAP calculan la explicación más probable de las posturas del robot y el mapa dados los datos del sensor, en lugar de intentar estimar toda la probabilidad posterior.

Los nuevos algoritmos SLAM siguen siendo un área de investigación activa [6] y, a menudo, están impulsados ​​por diferentes requisitos y suposiciones sobre los tipos de mapas, sensores y modelos, como se detalla a continuación. Muchos sistemas SLAM pueden verse como combinaciones de opciones de cada uno de estos aspectos.

Cartografía

Los mapas topológicos son un método de representación del entorno que captura la conectividad (es decir, la topología) del entorno en lugar de crear un mapa geométricamente preciso. Se han utilizado enfoques topológicos SLAM para imponer la coherencia global en los algoritmos métricos SLAM. [7]

Por el contrario, los mapas de cuadrícula utilizan matrices (normalmente cuadradas o hexagonales) de celdas discretizadas para representar un mundo topológico y hacer inferencias sobre qué celdas están ocupadas. Normalmente se supone que las celdas son estadísticamente independientes para simplificar el cálculo. Bajo tal supuesto, se establecen en 1 si las celdas del nuevo mapa son consistentes con la observación en la ubicación y en 0 si son inconsistentes.

Los coches autónomos modernos simplifican en gran medida el problema de los mapas a casi nada, haciendo un uso extensivo de datos cartográficos muy detallados recopilados de antemano. Esto puede incluir anotaciones en el mapa hasta el nivel de marcar las ubicaciones de segmentos de líneas blancas individuales y bordillos en la carretera. Los datos visuales etiquetados con la ubicación, como StreetView de Google, también se pueden utilizar como parte de los mapas. Esencialmente, estos sistemas simplifican el problema SLAM a una tarea más simple de localización, permitiendo tal vez que objetos en movimiento, como automóviles y personas, solo se actualicen en el mapa en tiempo de ejecución.

Sensación

Nube de puntos registrada acumulada de lidar SLAM

SLAM siempre utilizará varios tipos diferentes de sensores, y las potencias y límites de varios tipos de sensores han sido un importante impulsor de nuevos algoritmos. [8] La independencia estadística es el requisito obligatorio para hacer frente al sesgo métrico y al ruido en las mediciones. Los diferentes tipos de sensores dan lugar a diferentes algoritmos SLAM cuyas suposiciones son más apropiadas para los sensores. En un extremo, los escaneos láser o las características visuales proporcionan detalles de muchos puntos dentro de un área, lo que a veces hace que la inferencia SLAM sea innecesaria porque las formas en estas nubes de puntos se pueden alinear fácil e inequívocamente en cada paso mediante el registro de imágenes . En el extremo opuesto, los sensores táctiles son extremadamente escasos ya que solo contienen información sobre puntos muy cercanos al agente, por lo que requieren modelos previos fuertes para compensar en SLAM puramente táctil. La mayoría de las tareas prácticas de SLAM se encuentran en algún punto entre estos extremos visuales y táctiles.

Los modelos de sensores se dividen en términos generales en enfoques basados ​​en puntos de referencia y basados ​​en datos sin procesar. Los puntos de referencia son objetos singularmente identificables en el mundo cuya ubicación puede estimarse mediante un sensor, como puntos de acceso Wi-Fi o radiobalizas. Los enfoques de datos sin procesar no asumen que se puedan identificar puntos de referencia y, en cambio, modelan directamente en función de la ubicación.

Los sensores ópticos pueden ser telémetros láser unidimensionales (haz único) o 2D (barrido) , detección y alcance de luz de alta definición 3D ( lidar ), lidar con flash 3D, sensores de sonda 2D o 3D y una o más cámaras 2D . [8] Desde 2005, se ha realizado una intensa investigación sobre SLAM visual (VSLAM) utilizando principalmente sensores visuales (cámaras), debido a la creciente ubicuidad de cámaras como las de los dispositivos móviles. [9] Los sensores visuales y lidar son lo suficientemente informativos como para permitir la extracción de puntos de referencia en muchos casos. Otras formas recientes de SLAM incluyen SLAM táctil [10] (detección solo mediante contacto local), SLAM de radar, [11] SLAM acústico, [12] y Wi-Fi-SLAM (detección mediante puntos fuertes de puntos de acceso Wi-Fi cercanos). [13] Los enfoques recientes aplican alcance inalámbrico cuasi óptico para multilateración ( sistema de localización en tiempo real (RTLS)) o multiangulación junto con SLAM como tributo a las medidas inalámbricas erráticas. Una especie de SLAM para peatones humanos utiliza una unidad de medición inercial montada en un zapato como sensor principal y se basa en el hecho de que los peatones pueden evitar las paredes para construir automáticamente planos de los edificios mediante un sistema de posicionamiento interior . [14]

Para algunas aplicaciones al aire libre, la necesidad de SLAM se ha eliminado casi por completo gracias a los sensores GPS diferenciales de alta precisión . Desde la perspectiva de SLAM, estos pueden verse como sensores de ubicación cuyas probabilidades son tan precisas que dominan por completo la inferencia. Sin embargo, los sensores GPS pueden ocasionalmente fallar o dejar de funcionar por completo, por ejemplo, durante tiempos de conflicto militar, que son de particular interés para algunas aplicaciones de robótica.

Modelado cinemático

El término representa la cinemática del modelo, que generalmente incluye información sobre los comandos de acción dados a un robot. Como parte del modelo, se incluye la cinemática del robot para mejorar las estimaciones de detección en condiciones de ruido ambiental e inherente. El modelo dinámico equilibra las contribuciones de varios sensores, varios modelos de error parcial y finalmente comprende una representación virtual nítida como un mapa con la ubicación y el rumbo del robot como una especie de nube de probabilidad. El mapeo es la representación final de dicho modelo; el mapa es dicha representación o el término abstracto para el modelo.

Para los robots 2D, la cinemática suele estar dada por una combinación de comandos de rotación y "avanzar", que se implementan con ruido de motor adicional. Desafortunadamente, la distribución formada por ruido independiente en direcciones angulares y lineales no es gaussiana, pero a menudo se aproxima mediante una gaussiana. Un enfoque alternativo es ignorar el término cinemático y leer los datos de odometría de las ruedas del robot después de cada comando; dichos datos pueden tratarse como uno de los sensores en lugar de como cinemática.

Objetos en movimiento

Los entornos no estáticos, como aquellos que contienen otros vehículos o peatones, continúan presentando desafíos de investigación. [15] [16] SLAM con DATMO es un modelo que rastrea objetos en movimiento de manera similar al propio agente. [17]

Cierre de bucle

El cierre del circuito es el problema de reconocer un lugar visitado previamente y actualizar las creencias en consecuencia. Esto puede ser un problema porque los errores del modelo o del algoritmo pueden asignar prioridades bajas a la ubicación. Los métodos típicos de cierre de bucle aplican un segundo algoritmo para calcular algún tipo de similitud de medida del sensor y restablecer las ubicaciones anteriores cuando se detecta una coincidencia. Por ejemplo, esto se puede hacer almacenando y comparando vectores de bolsas de palabras de características de transformación de características invariantes de escala (SIFT) de cada ubicación visitada anteriormente.

Exploración

Active SLAM estudia el problema combinado de SLAM con la decisión de dónde moverse a continuación para construir el mapa de la manera más eficiente posible. La necesidad de exploración activa es especialmente pronunciada en regímenes de detección escasos como el SLAM táctil. El SLAM activo generalmente se realiza aproximando la entropía del mapa bajo acciones hipotéticas. "Multi Agent SLAM" extiende este problema al caso de múltiples robots que se coordinan para explorar de manera óptima.

Inspiración biológica

En neurociencia, el hipocampo parece estar involucrado en cálculos similares a SLAM, [18] [19] [20] dando lugar a células de lugar , y ha formado la base de sistemas SLAM bioinspirados como RatSLAM.

SLAM colaborativo

SLAM colaborativo combina sensores de múltiples robots o usuarios para generar mapas 3D. [21] Esta capacidad fue demostrada por varios equipos en el Desafío Subterráneo DARPA 2021 .

Métodos SLAM especializados

Golpe acústico

Se ha aplicado una extensión del problema SLAM común al dominio acústico, donde los entornos están representados por la posición tridimensional (3D) de las fuentes de sonido, denominado aSLAM ( localización y mapeo acústico simultáneo ). [22] Las primeras implementaciones de esta técnica han utilizado estimaciones de dirección de llegada (DoA) de la ubicación de la fuente de sonido y se basan en técnicas principales de localización de sonido para determinar las ubicaciones de la fuente. Un observador o robot debe estar equipado con un conjunto de micrófonos para permitir el uso de Acoustic SLAM, de modo que las características de DoA se estimen adecuadamente. Acoustic SLAM ha sentado las bases para futuros estudios sobre mapeo de escenas acústicas y puede desempeñar un papel importante en la interacción entre humanos y robots a través del habla. Para mapear fuentes de sonido múltiples, y ocasionalmente intermitentes, un sistema SLAM acústico utiliza fundamentos en la teoría de conjuntos finitos aleatorios para manejar la presencia variable de puntos de referencia acústicos. [23] Sin embargo, la naturaleza de las características derivadas acústicamente deja a Acoustic SLAM susceptible a problemas de reverberación, inactividad y ruido dentro de un entorno.

Audiovisual SLAM

Audio-Visual SLAM, originalmente diseñado para la interacción entre humanos y robots, es un marco que proporciona la fusión de características históricas obtenidas de las modalidades acústica y visual dentro de un entorno. [24] La interacción humana se caracteriza por características percibidas no sólo en la modalidad visual, sino también en la modalidad acústica; como tal, los algoritmos SLAM para robots y máquinas centrados en el ser humano deben tener en cuenta ambos conjuntos de características. Un marco audiovisual estima y mapea posiciones de puntos de referencia humanos mediante el uso de características visuales como la pose humana y características de audio como el habla humana, y fusiona las creencias para crear un mapa más sólido del entorno. Para aplicaciones en robótica móvil (por ejemplo, drones, robots de servicio), es valioso utilizar equipos livianos y de bajo consumo, como cámaras monoculares o conjuntos de micrófonos microelectrónicos. Audio-Visual SLAM también puede permitir la función complementaria de dichos sensores, al compensar el campo de visión estrecho, las oclusiones de características y las degradaciones ópticas comunes a los sensores visuales livianos con el campo de visión completo y las representaciones de características sin obstrucciones inherentes a sensores de audio. La susceptibilidad de los sensores de audio a la reverberación, la inactividad de la fuente de sonido y el ruido también puede compensarse mediante la fusión de creencias históricas de la modalidad visual. La función complementaria entre las modalidades audiovisuales en un entorno puede resultar valiosa para la creación de robótica y máquinas que interactúen plenamente con el habla y el movimiento humanos.

Métodos de implementación

Se implementan varios algoritmos SLAM en las bibliotecas del sistema operativo robot (ROS) del software de código abierto , que a menudo se usan junto con la biblioteca de nube de puntos para mapas 3D o características visuales de OpenCV .

Golpe EKF

En robótica , EKF SLAM es una clase de algoritmos que utiliza el filtro de Kalman extendido (EKF) para SLAM. Normalmente, los algoritmos EKF SLAM se basan en funciones y utilizan el algoritmo de máxima probabilidad para la asociación de datos. En las décadas de 1990 y 2000, EKF SLAM había sido el método de facto para SLAM, hasta la introducción de FastSLAM . [25]

Asociado con el EKF está el supuesto de ruido gaussiano, que perjudica significativamente la capacidad de EKF SLAM para lidiar con la incertidumbre. Con una mayor cantidad de incertidumbre en el posterior, la linealización en el EKF falla. [26]

GráficoSLAM

En robótica , GraphSLAM es un algoritmo SLAM que utiliza matrices de información dispersa producidas generando un gráfico de factores de interdependencias de observación (dos observaciones están relacionadas si contienen datos sobre el mismo punto de referencia). [26] Se basa en algoritmos de optimización.

Historia

Un trabajo fundamental en SLAM es la investigación de RC Smith y P. Cheeseman sobre la representación y estimación de la incertidumbre espacial en 1986. [27] [28] Otro trabajo pionero en este campo fue realizado por el grupo de investigación de Hugh F. Durrant- Whyte a principios de los años 1990. [29] que demostró que existen soluciones para SLAM en el límite infinito de datos. Este hallazgo motiva la búsqueda de algoritmos que sean computacionalmente manejables y se aproximen a la solución. El acrónimo SLAM se acuñó en el artículo "Localización de vehículos guiados autónomos" que apareció por primera vez en ISR en 1995. [30]

Los autos autónomos STANLEY y JUNIOR, liderados por Sebastian Thrun , ganaron el DARPA Grand Challenge y quedaron segundos en el DARPA Urban Challenge en la década de 2000, e incluyeron sistemas SLAM, lo que atrajo la atención mundial sobre SLAM. Las implementaciones SLAM del mercado masivo ahora se pueden encontrar en robots aspiradores de consumo [31] y auriculares de realidad virtual como Meta Quest 2 y PICO 4 para un seguimiento de adentro hacia afuera sin marcadores.

Ver también

Referencias

  1. ^ Thrun, Sebastián ; Burgard, Wolfram ; Fox, Dieter . Robótica Probabalística . La prensa del MIT. pag. 309.
  2. ^ Julier, S.; Uhlmann, J. (2001). Construyendo un mapa de un millón de balizas . Actas de la conferencia ISAM sobre sistemas inteligentes para la fabricación. doi :10.1117/12.444158.
  3. ^ Csorba, M.; Uhlmann, J. (1997). "Un algoritmo subóptimo para la creación automática de mapas ". Actas de la Conferencia Americana de Control de 1997. doi :10.1109/ACC.1997.611857.
  4. ^ Jaulín, L. (2009). "Un enfoque de membresía de conjunto no lineal para la localización y construcción de mapas de un robot submarino utilizando propagación de restricciones de intervalo" (PDF) . Transacciones IEEE sobre robótica . 25 : 88–98. doi :10.1109/TRO.2008.2010358. S2CID  15474613.
  5. ^ Jaulín, L. (2011). "SLAM de rango exclusivo con mapas de ocupación; un enfoque de membresía establecida" (PDF) . Transacciones IEEE sobre robótica . 27 (5): 1004-1010. doi :10.1109/TRO.2011.2147110. S2CID  52801599.
  6. ^ Cadena, César; Carlone, Luca; Carrillo, Enrique; Latif, Yasir; Scaramuzza, Davide; Neira, José; Reid, Ian; Leonard, John J. (2016). "Pasado, presente y futuro de la localización y el mapeo simultáneos: hacia la era de la percepción sólida". Transacciones IEEE sobre robótica . 32 (6): 1309-1332. arXiv : 1606.05830 . Código Bib : 2016arXiv160605830C. doi :10.1109/tro.2016.2624754. hdl :2440/107554. ISSN  1552-3098. S2CID  2596787.
  7. ^ Cummins, marca; Newman, Paul (junio de 2008). "FAB-MAP: Localización y mapeo probabilístico en el espacio de aparición" (PDF) . La Revista Internacional de Investigación en Robótica . 27 (6): 647–665. doi :10.1177/0278364908090961. S2CID  17969052 . Consultado el 23 de julio de 2014 .
  8. ^ ab Magnabosco, M.; Breckon, TP (febrero de 2013). "Localización y mapeo simultáneo visual transespectral (SLAM) con transferencia de sensores" (PDF) . Robótica y Sistemas Autónomos . 63 (2): 195–208. doi : 10.1016/j.robot.2012.09.023 . Consultado el 5 de noviembre de 2013 .
  9. ^ Karlsson, N.; et al. (Di Bernardo, E.; Ostrowski, J; Goncalves, L.; Pirjanian, P.; Munich, M.) (2005). "El algoritmo vSLAM para una localización y mapeo sólidos ". En t. Conf. de Robótica y Automatización (ICRA). doi :10.1109/ROBOT.2005.1570091.
  10. ^ Zorro, C.; Evans, M.; Pearson, M.; Prescott, T. (2012). SLAM táctil con un robot bigotudo biomimético (PDF) . Proc. IEEE Internacional. Conf. de Robótica y Automatización (ICRA).
  11. ^ Marck, JW; Mohamed, A.; vd Houwen, E.; van Heijster, R. (2013). Radar interior SLAM Una aplicación de radar para entornos con visión y GPS denegados (PDF) . Conferencia sobre radar (EuRAD), 2013 europea.
  12. ^ Evers, Christine, Alastair H. Moore y Patrick A. Naylor. "Localización y mapeo acústico simultáneo (a-SLAM) de un conjunto de micrófonos en movimiento y los parlantes circundantes". Conferencia internacional IEEE 2016 sobre acústica, habla y procesamiento de señales (ICASSP). IEEE, 2016.
  13. ^ Ferris, Brian, Dieter Fox y Neil D. Lawrence. "Wi-Fi-slam utilizando modelos de variables latentes de proceso gaussiano Archivado el 24 de diciembre de 2022 en Wayback Machine ". IJCAI. vol. 7. N° 1. 2007.
  14. ^ Robertson, P.; Angermann, M.; Krach, B. (2009). Localización y mapeo simultáneos para peatones utilizando solo sensores inerciales montados en los pies (PDF) . Ubicomp 2009. Orlando, Florida, Estados Unidos: ACM. doi :10.1145/1620545.1620560. Archivado desde el original (PDF) el 16 de agosto de 2010.
  15. ^ Perera, Samunda; Pasqual, Ajith (2011). "Hacia MonoSLAM portátil en tiempo real en entornos dinámicos". En Bebis, George; Boyle, Richard; Parvin, Bahram; Koracin, Darko; Wang, canción; Kyungnam, Kim; Benes, Bedrich; Moreland, Kenneth; Borst, Christoph (eds.). Avances en Computación Visual . Apuntes de conferencias sobre informática. vol. 6938. Springer Berlín Heidelberg. págs. 313–324. doi :10.1007/978-3-642-24028-7_29. ISBN 9783642240287.
  16. ^ Perera, Samunda; Barnes, Dr. Nick; Zelinsky, Dr.Alexander (2014), Ikeuchi, Katsushi (ed.), "Exploración: localización y mapeo simultáneos (SLAM)", Visión por computadora: una guía de referencia , Springer EE. UU., págs. 268–275, doi :10.1007/978 -0-387-31439-6_280, ISBN 9780387314396, S2CID  34686200
  17. ^ Wang, Chieh-Chih; Thorpe, Carlos; Thrun, Sebastián; Hébert, marcial; Durrant-Whyte, Hugh (2007). "Localización, mapeo y seguimiento de objetos en movimiento simultáneos" (PDF) . En t. J. Robot. Res . 26 (9): 889–916. doi :10.1177/0278364907081229. S2CID  14526806.
  18. ^ Howard, MW; Fotedar, MS; Datey, AV; Hasselmo, ME (2005). "El modelo de contexto temporal en navegación espacial y aprendizaje relacional: hacia una explicación común de la función del lóbulo temporal medial en todos los dominios". Revisión psicológica . 112 (1): 75-116. doi :10.1037/0033-295X.112.1.75. PMC 1421376 . PMID  15631589. 
  19. ^ Zorro, C; Prescott, T (2010). "El hipocampo como filtro de partículas coherente unitario". La Conferencia Conjunta Internacional sobre Redes Neuronales de 2010 (IJCNN) (PDF) . págs. 1–8. doi :10.1109/IJCNN.2010.5596681. ISBN 978-1-4244-6916-1. S2CID  10838879.
  20. ^ Milford, MJ; Wyeth, GF; Prasser, D (2004). "RatSLAM: un modelo de hipocampo para localización y mapeo simultáneos". Conferencia internacional IEEE sobre robótica y automatización, 2004. Actas. ICRA '04. 2004 (PDF) . págs. 403–408 Vol.1. doi :10.1109/ROBOT.2004.1307183. ISBN 0-7803-8232-3. S2CID  7139556.
  21. ^ Zou, Danping y Ping Tan. "Coslam: golpe visual colaborativo en entornos dinámicos". Transacciones IEEE sobre análisis de patrones e inteligencia artificial 35.2 (2012): 354–366.
  22. ^ Evers, Christine; Naylor, Patrick A. (septiembre de 2018). "SLAM acústico" (PDF) . Transacciones IEEE/ACM sobre procesamiento de audio, voz y lenguaje . 26 (9): 1484-1498. doi : 10.1109/TASLP.2018.2828321 . ISSN  2329-9290.
  23. ^ Mahler, RPS (octubre de 2003). "Filtrado bayesiano multiobjetivo mediante momentos multiobjetivo de primer orden". Transacciones IEEE sobre sistemas aeroespaciales y electrónicos . 39 (4): 1152-1178. Código Bib :2003ITAES..39.1152M. doi :10.1109/TAES.2003.1261119. ISSN  0018-9251.
  24. ^ Chau, Aarón; Sekiguchi, Kouhei; Nugraha, Aditya Arie; Yoshii, Kazuyoshi; Funakoshi, Kotaro (octubre de 2019). "SLAM audiovisual hacia el seguimiento humano y la interacción persona-robot en entornos interiores". 2019 28.a Conferencia Internacional IEEE sobre Comunicación Interactiva Humana y Robots (RO-MAN) . Nueva Delhi, India: IEEE. págs. 1–8. doi :10.1109/RO-MAN46459.2019.8956321. ISBN 978-1-7281-2622-7. S2CID  210697281.
  25. ^ Montemerlo, M.; Thrun, S.; Koller, D.; Wegbreit, B. (2002). "FastSLAM: una solución factorizada al problema simultáneo de localización y mapeo" (PDF) . Actas de la Conferencia Nacional AAAI sobre Inteligencia Artificial . págs. 593–598.
  26. ^ ab Thrun, S.; Burgard, W.; Zorro, D. (2005). Robótica Probabilística . Cambridge: Prensa del MIT. ISBN 0-262-20162-3.
  27. ^ Smith, RC; Queso, P. (1986). "Sobre la representación y estimación de la incertidumbre espacial" (PDF) . La Revista Internacional de Investigación en Robótica . 5 (4): 56–68. doi :10.1177/027836498600500404. S2CID  60110448 . Consultado el 8 de abril de 2008 .
  28. ^ Smith, RC; Yo, M.; Queso, P. (1986). "Estimación de relaciones espaciales inciertas en robótica" (PDF) . Actas de la Segunda Conferencia Anual sobre Incertidumbre en Inteligencia Artificial . AUI '86. Universidad de Pensilvania, Filadelfia, PA, EE.UU.: Elsevier. págs. 435–461. Archivado desde el original (PDF) el 2 de julio de 2010.
  29. ^ Leonardo, JJ; Durrant-Whyte, HF (1991). "Construcción y localización simultánea de mapas para un robot móvil autónomo". Actas IROS '91: Taller internacional IEEE/RSJ sobre robots y sistemas inteligentes '91 . págs. 1442-1447. doi :10.1109/IROS.1991.174711. ISBN 978-0-7803-0067-5. S2CID  206935019.{{cite book}}: Mantenimiento CS1: fecha y año ( enlace )
  30. ^ Durrant-Whyte, H.; Bailey, T. (junio de 2006). "Localización y mapeo simultáneos: parte I". Revista IEEE Robotics Automation . 13 (2): 99-110. doi : 10.1109/MRA.2006.1638022 . ISSN  1558-223X. S2CID  8061430.
  31. ^ Caballero, Will (16 de septiembre de 2015). "Con un Roomba capaz de navegación, iRobot apunta a robots domésticos avanzados". Revisión de tecnología del MIT . Consultado el 25 de abril de 2018 .

enlaces externos