Mostrar el registro sencillo del ítem
dc.contributor.advisor | Hernández Orallo, José | es_ES |
dc.contributor.author | Insa Cabrera, Javier | es_ES |
dc.date.accessioned | 2012-05-25T09:52:40Z | |
dc.date.available | 2012-05-25T09:52:40Z | |
dc.date.created | 2011-09 | |
dc.date.issued | 2012-05-25 | |
dc.identifier.uri | http://hdl.handle.net/10251/15873 | |
dc.description.abstract | La Inteligencia Arti cial (IA) siempre ha intentado emular la mayor virtud del ser humano: su inteligencia. Sin embargo, y aunque han habido multitud de esfuerzos por conseguirlo, a simple vista nos percatamos de que su inteligencia apenas llega a asemejarse a la de los seres humanos. Los métodos existentes hoy en día para evaluar la inteligencia de la IA, se centran en utilizar técnicas empíricas para medir el rendimiento de los algoritmos en ciertas tareas concretas (e.g., jugar al ajedrez, resolver un laberinto o aterrizar un helicóptero). No obstante, estos métodos no resultan apropiados si lo que queremos es evaluar la inteligencia general de la IA y, aun menos, si pretendemos compararla con la de los seres humanos. En el proyecto ANYNT se ha diseñado un nuevo método de evaluación que trata de evaluar la IA a partir de nociones computacionales bien conocidas utilizando problemas lo más generales posibles. Este nuevo método sirve para evaluar la inteligencia general (la cual nos permite aprender a resolver cualquier nuevo tipo de problema al que nos enfrentamos) y no para evaluar únicamente el rendimiento en un conjunto de tareas especí cas. Este método no solo se centra en medir la inteligencia de algoritmos, sino que está pensado para poder evaluar cualquier tipo de sistema inteligente (seres humanos, animales, IA, ¿extraterrestres?, . . . ) y a la vez situar sus resultados en una misma escala y, por lo tanto, poder compararlos. Este nuevo enfoque de evaluación de la IA permitirá (en un futuro) evaluar y comparar cualquier tipo de sistema inteligente conocido o aun por construir/descubrir ya sean arti ciales o biológicos. En esta tesis de máster pretendemos comprobar que este nuevo método ofrece unos resultados coherentes al evaluar algoritmos de IA mediante el diseño e implementación de prototipos de test de inteligencia universales y su aplicación a diferentes sistemas inteligentes (algoritmos de IA y seres humanos). Del estudio analizamos si los resultados obtenidos por dos sistemas inteligentes distintos se encuentran correctamente situados en la misma escala y se proponen cambios y re namientos a estos prototipos con el n de, en un futuro, poder lograr un test de inteligencia verdaderamente universal. | es_ES |
dc.format.extent | 114 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Evaluación | es_ES |
dc.subject | Inteligencia artificial | es_ES |
dc.subject | Aprendizaje por refuerzo | es_ES |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.other | Máster Universitario en Ingeniería del Software, Métodos Formales y Sistemas de Información-Màster Universitari en Enginyeria del Programari, Mètodes Formals i Sistemes D'Informació | es_ES |
dc.title | Análisis de primeros prototipos de tests de inteligencia universales: Evaluando y comparando algoritmos de IA y seres humanos | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Servicio de Alumnado - Servei d'Alumnat | es_ES |
dc.description.bibliographicCitation | Insa Cabrera, J. (2011). Análisis de primeros prototipos de tests de inteligencia universales: Evaluando y comparando algoritmos de IA y seres humanos. http://hdl.handle.net/10251/15873 | es_ES |
dc.description.accrualMethod | Archivo delegado | es_ES |