- -

Creación de un modelo visual del entorno basado en imágenes omnidireccionales

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Creación de un modelo visual del entorno basado en imágenes omnidireccionales

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.author Gil, A. es_ES
dc.contributor.author Valiente, D. es_ES
dc.contributor.author Reinoso, O. es_ES
dc.contributor.author Marín, J.M. es_ES
dc.date.accessioned 2020-05-27T07:28:15Z
dc.date.available 2020-05-27T07:28:15Z
dc.date.issued 2012-10-14
dc.identifier.issn 1697-7912
dc.identifier.uri http://hdl.handle.net/10251/144401
dc.description.abstract [ES] En este artículo abordamos el problema de la construcción del mapa visual de un entorno mediante un robot móvil, ubicándose, por tanto, en el ámbito del problema de SLAM (Simultaneous Localization and Mapping). La solución presentada en este artículo se fundamenta en el uso de un conjunto de imágenes para representar el entorno. De esta manera, la estimación del mapa se plantea como el cálculo de la posición y orientación de un conjunto de vistas omnidireccionales obtenidas del entorno. La idea desarro- llada se separa de la concepción habitual de mapa visual, en la que el entorno estárepresentado mediante un conjunto de puntos tridimensionales definidos respecto de un sistema de referencia. En el caso presentado, se considera que el robot estáequipado con un único sensor visual omnidireccional que permite detectar un conjunto de puntos de interés de las imágenes que, a continuación, son representados mediante un descriptor visual. El proceso de construcción del mapa se puede resumir de la siguiente manera: cuando el robot se mueve por el entorno captura imágenes omnidireccionales y extrae un conjunto de puntos de interés de cada una de ellas. A continuación, se buscan correspondencias entre la imagen capturada y el resto de imágenes omnidireccionales existentes en el mapa. Si el nú mero de correspondencias encontradas entre la imagen actual y alguna de las imágenes del mapa es suficiente, se calcula una transformación consistente en una rotación y translación. A partir de estas medidas podemos deducir la localización del robot con respecto a las imágenes almacenadas en el mapa. Se presentan resultados obtenidos en un entorno simulado que validan la idea presentada. Además, se han obtenido resultados experimentales utilizando datos reales que demuestran la validez de la solución presentada. es_ES
dc.description.abstract [EN] This paper deals with the problem of Simultaneous Localization and Mapping (SLAM). The solution presented is based on the utilisation of a set of images to represent the environment. In this way, the estimation of the map considers the computation of the position and orientation of a set of omnidirectional views captured from the environment. The proposed idea sets apart from the usual representation of a visual map, in which the environment is represented by a set of three dimensional points in a common reference system. Each of these points is commonly denoted as visual landmark. In the case presented here, the robot is equipped by a single omnidirectional visual sensor that allows to extract a number of interest points in the images, each one described by a visual descriptor. The map building process can be summed up in the following way: as the robot traverses the environment, it captures omnidirectional images and extracts a set of interest points from each one. Next, a set of correspondences is found between the current image and the rest of omnidirectional images existing in the map. When the number of correspondences found is enough, a transformation is computed, consisting of a rotation and a translation (up to an unknown scale factor). In the paper we show a method that allows to build a map while localizing the robot using these kind of observations. We present results obtained in a simulated environment that validate the proposed idea. In addition, we present experimental results using real data that prove the suitability of the solution. es_ES
dc.description.sponsorship Este trabajo se ha llevado a cabo gracias en parte al Ministerio de Ciencia e Innovacion a trav ´ es del proyecto DPI2010-15308, con tÍtulo ”Exploración integrada de entornos mediante ´ robots cooperativos para la creacion de mapas 3D visuales y to- ´ pologicos que puedan ser usados en navegaci ´ on con 6 grados ´ de libertad” es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.relation.ispartof Revista Iberoamericana de Automática e Informática industrial es_ES
dc.rights Reconocimiento - No comercial - Sin obra derivada (by-nc-nd) es_ES
dc.subject SLAM es_ES
dc.subject Robótica móvil es_ES
dc.subject Visión omnidireccional es_ES
dc.subject Mobile robotics es_ES
dc.subject Omnidirectional vision es_ES
dc.title Creación de un modelo visual del entorno basado en imágenes omnidireccionales es_ES
dc.title.alternative Construction of a visual model of the environment based on omnidirectional images es_ES
dc.type Artículo es_ES
dc.identifier.doi 10.1016/j.riai.2012.09.011
dc.relation.projectID info:eu-repo/grantAgreement/MICINN//DPI2010-15308/ES/EXPLORACION INTEGRADA DE ENTORNOS MEDIANTE ROBOTS COOPERATIVOS PARA LA CREACION DE MAPAS 3D VISUALES Y TOPOLOGICOS QUE PUEDAN SER USADOS EN NAVEGACION CON 6 GRADOS DE LIBERTAD/ es_ES
dc.rights.accessRights Abierto es_ES
dc.description.bibliographicCitation Gil, A.; Valiente, D.; Reinoso, O.; Marín, J. (2012). Creación de un modelo visual del entorno basado en imágenes omnidireccionales. Revista Iberoamericana de Automática e Informática industrial. 9(4):441-452. https://doi.org/10.1016/j.riai.2012.09.011 es_ES
dc.description.accrualMethod OJS es_ES
dc.relation.publisherversion https://doi.org/10.1016/j.riai.2012.09.011 es_ES
dc.description.upvformatpinicio 441 es_ES
dc.description.upvformatpfin 452 es_ES
dc.type.version info:eu-repo/semantics/publishedVersion es_ES
dc.description.volume 9 es_ES
dc.description.issue 4 es_ES
dc.identifier.eissn 1697-7920
dc.relation.pasarela OJS\9583 es_ES
dc.contributor.funder Ministerio de Ciencia e Innovación es_ES
dc.description.references Andrew J. Davison, A.J., Gonzalez Cid, Y., Kita, N., 2004. Improving data association in vision-based SLAM. In: Proc. of IFAC/EURON. Lisboa, Por- tugal. es_ES
dc.description.references Aracil, R., Balaguer, C., & Armada, M. (2008). Robots de servicio. Revista Iberoamericana de Automática e Informática Industrial RIAI, 5(2), 6-13. doi:10.1016/s1697-7912(08)70140-7 es_ES
dc.description.references Ballesta, M., Gil, A., Reinoso, O., & Úbeda, D. (2010). Análisis de Detectores y Descriptores de Características Visuales en SLAM en Entornos Interiores y Exteriores. Revista Iberoamericana de Automática e Informática Industrial RIAI, 7(2), 68-80. doi:10.1016/s1697-7912(10)70027-3 es_ES
dc.description.references Bay, H., Tuytelaars, T., Van Gool, L., 2006. SURF: Speeded up robust features. In: Proc. of the ECCV. Graz, Austria. es_ES
dc.description.references Bunschoten, R., Krose, B., 2003. Visual odometry from an omnidirectional vi- sion system. In: Proc. of the ICRA. es_ES
dc.description.references Civera, J., Davison, A.J., Martínez Montiel, J.M., 2008. Inverse depth para- metrization for monocular slam. IEEE Trans. on Robotics. es_ES
dc.description.references Davison, A.J., Murray, D.W., 2002. Simultaneous localisation and map- building using active vision. IEEE Trans. on PAMI. es_ES
dc.description.references Gil, A., Martinez-Mozos, O., Ballesta, M., Reinoso, O., 2010. A comparative evaluation of interest point detectors and local descriptors for visual slam. Machine Vision and Applications. es_ES
dc.description.references Gil, A., Reinoso, O., Martínez-Mozos, O., Stachniss, C., Burgard, W., 2006. Improving data association in vision-based SLAM. In: Proc. of the IROS. Beijing, China. es_ES
dc.description.references Grisetti, G., Stachniss, C., Grzonka, S., Burgard, W., 2007. A tree parameteri- zation for efficiently computing maximum likelihood maps using gradient descent. In: Proc. of RSS. Atlanta, Georgia. es_ES
dc.description.references Harris, C.G., Stephens, M., 1988. A combined corner and edge detector. In: Proc. of Alvey Vision Conference. Manchester, UK. es_ES
dc.description.references Hartley, R., Zisserman, A., 2004. Multiple View Geometry in Computer Vision. Cambridge University Press. es_ES
dc.description.references Jae-Hean, K., Myung Jin, C., 2003. Slam with omni-directional stereo vision sensor. In: Proc. of the IROS. Las Vegas.(Nevada). es_ES
dc.description.references Joly, C., Rives, P., 2010. Bearing-only SAM using a minimal inverse depth parametrization. In: Proc. of ICINCO. Funchal, Madeira.(Portugal). es_ES
dc.description.references Kawanishi, R., Yamashita, A., Kaneko, T., 2008. Construction of 3D environ- ment model from an omni-directional image sequence. In: Proc. of the Asia International Symposium on Mechatronics 2008. Sapporo, Japan. es_ES
dc.description.references Lowe, D., 2004. Distinctive image features from scale-invariant keypoints. In- ternational Journal of Computer Vision. es_ES
dc.description.references Montemerlo, M., Thrun, S., Koller, D., Wegbreit, B., 2002. Fastslam: a factored solution to the simultaneous localization and mapping problem. In: Proc. of the 18th national conference on Artificial Intelligence. Edmonton, Canada. es_ES
dc.description.references Neira, J., Tardós, J.D., 2001. Data association in stochastic mapping using the joint compatibility test. IEEE Trans. on Robotics and Automation. es_ES
dc.description.references Nister, D., 2003. An efficient solution to the five-point relative pose problem. In: Proc. of the IEEE CVPR. Madison, USA. es_ES
dc.description.references Nistér, D., 2005. Preemptive RANSAC for live structure and motion estimation. Machine Vision and Applications. es_ES
dc.description.references Paya, L., Fernández, L., Reinoso, O., Gil, A., Úbeda, D., 2009. Appearance- based dense maps creation: Comparison of compression techniques with pa- noramic images. In: 6th International Conference on Informatics in Control, Automation and Robotics ICINCO. Milan (Italy), pp. 250-255. es_ES
dc.description.references Scaramuzza, D., Fraundorfer, F., Siegwart, R., 2009. Real-time monocular vi- sual odometry for on-road vehicles with 1-point RANSAC. In: Proc. of the ICRA. Kobe, Japan. es_ES
dc.description.references Scaramuzza, D., Martinelli, A., Siegwart, R., 2006. A toolbox for easily cali- brating omnidirectional cameras. In: Proc. of the IROS. Beijing, China. es_ES
dc.description.references Stachniss, C., Grisetti, G., Haehnel, D., Burgard, W., 2004. Improved. Rao-Blackwellized mapping by adaptive sampling and active loop-closure. In: Proc. of the SOAVE. Ilmenau, Germany. es_ES
dc.description.references Stewenius, H., Engels, C., Nister, D., 2006. Recent developments on direct re- lative orientation. ISPRS Journal of Photogrammetry and Remote Sensing. es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem