Valencia, 29 de Septiembre de 2009. Programa de Doctorado: Automática e Informática Industrial Autor de la tesis: D. Danilo A. Navarro García Titulo de la tesis: Contribución a la autolocalización de robots móviles basada en la fusión de información multisensorial Director de la tesis: Dr. Gines Benet Gilabert Resumen Los primeros robots operaban en entornos especialmente preparados para ellos. Cada componente de su espacio de trabajo se encontraba situado en una posición y orientación predefinidas, de modo que el robot conocía a priori y con exactitud el escenario donde se encontraba. En la actualidad muchas de las aplicaciones requieren que los robots tengan rasgos de autonomía como son la capacidad para identificar mediante sus sensores las características que tiene el entorno, la capacidad para autolocalizarse dentro del mismo, y la capacidad para navegar por su espacio de trabajo respondiendo a las variaciones temporales que vayan surgiendo. A pesar de que los resultados obtenidos en el campo de la construcción de mapas y auto-localización de robot móviles son abundantes y muy significativos, aun existen problemas por resolver sobre todo los vinculados al uso de sensores imprecisos y de bajo costo, ya que la información obtenida con estos sensores resulta poco fiable al momento de integrarla a las distintas aplicaciones en este tipo de sistemas. Este trabajo se centra en el estudio y modelado de sensores de bajo costo de uso típico en robótica móvil (codificadores rotativos, sensores de ultrasonidos e infrarrojos, compás magnético), y de cómo pueden ser utilizados en labores de auto-localización y representación del entorno. Mediante la fusión de datos provenientes de sensores de bajo coste se logra que un robot móvil se auto localice adecuadamente de forma que pueda navegar confiablemente en entornos estructurados. Para probar y evaluar off-line los distintos mecanismos de fusión y filtrado propuestos, a lo largo de esta tesis se desarrollan modelos sensoriales así como un pseudo código para la simulación de la operación de estos sensores en un robot real. Igualmente, en esta tesis se formulan los procedimientos y se elabora el software que se insertará en un robot real para que éste ejecute las acciones de control de navegación, de adquisición y filtrado de datos sensoriales, y de fusión pertinente a la localización y el mapeado en su entorno de operación. En este sentido, aquí se han desarrollado modelos de sensores que permiten integrar los mismos a sistemas más avanzados de fusión sensorial, que a la postre sirven para construir mapas de densidad de ocupación y de características geométricas del entorno. Así mismo, a partir de los modelos sensoriales se han desarrollado dos sistemas de localización. El primero usa los odómetros de abordo para mantener la posición del robot mediante un procedimiento de seguimiento (Tracking) conocido como Dead- Reckoning. El segundo se fundamenta en un Filtro de Kalman Extendido que integra la información proveniente de un sensor de ultrasonidos para mantener y corregir la posición del robot utilizando 2 tipos de hitos (Landmark) naturales: Paredes y Esquinas. Para la comprobación y evaluación del funcionamiento de los métodos propuestos, en esta tesis se ha utilizado un robot llamado YAIR (Yet Another Intelligent Robot), el cual es una plataforma multi-sensorial que cuenta un sistema impulsor de principio diferencial. Dado que se trata de un sistema de tiempo real que operará en un entorno real, la técnica de análisis y validación de los resultados se basó en la observación directa del comportamiento del robot cuando realizaba las acciones de navegación y exploración del entorno que le eran programadas. Los resultados obtenidos muestran que con la fusión de datos se mejora sensiblemente la calidad de los mapas de representación del entorno, y con ello se mejora también la precisión en la localización del robot. Así mismo, con el sistema de localización desarrollado en esta tesis, el cual se fundamenta en el Filtro Extendido de Kalman para la fusión de los datos de localización odométrica con los datos de observación de un sensor de ultrasonidos, se logró mejorar la autolocalización del robot, pasando de errores del orden de 3 metros en trayectos de 80 metros, a errores de pocas décimas de metros en el mismo tramo.