Conscious-Robots gana la competición 2K BotPrize 2010

¡¡¡El equipo Conscious-Robots ganador de la competición 2K BotPrize 2010!!!

La tercera edición de la competición 2K BotPrize ha tenido lugar recientemente, habiéndose celebrado la sesión final en  Copenhague, en la conferencia 2010 IEEE Conference on Computational Intelligence and Games. Nos complace anunciar que el equipo español – Conscious-Robots – formado por Jorge Muñoz y Raúl Arrabales ha obtenido la victoria en la edición de este año de esta competición que consiste en un  Test de Turing adaptado al dominio de los videojuegos [1].

botprizepic_1_small

Raúl Arrabales (izquierda) y Jorge Muñoz (derecha) con el trofeo 2K BotPrize (diseñado por Peter Reynolds)

El objetivo de la competición 2K BotPrize es desarrollar un bot (personaje sintético de un videojuego)  capaz de comportarse como un humano, tan bien que no se le pueda distinguir de un verdadero jugador humano, es decir, un bot capaz de pasar el Test de Turing. Aunque el bot de Conscious-Robots no pudo pasar por completo el Test de Turing, logró alcanzar un ratio de “humanidad” del 31.8%. A fecha de hoy no se ha construido ninguna máquina capaz de alcanzar el nivel de inteligencia necesario para pasar el Test de Turing. Sin embargo, este año se ha reducido la distancia entre humanos y bots, con una pequeña diferencia entre el bot de Conscious-Robots (31.8%) y el menos “humano” de los jugadores humanos (35.4%) – ver resultados.

Continue reading “Conscious-Robots gana la competición 2K BotPrize 2010”

Máquinas que juegan a ser humanas

En busca de máquinas que juegan a ser humanas

(Al menos en los vídeojuegos)

Investigadores de la UC3M han participado en un concurso internacional con el objetivo de mejorar la inteligencia virtual que se emplea en los mundos virtuales. El reto de los participantes consistía en desarrollar un programa capaz de actuar como una persona en un videojuego.

La segunda edición de este concurso, conocido como BotPrize [1], partía de la prueba desarrollada por Alan Turing en 1950, que consideraba que se puede hablar de inteligencia artificial cuando un humano no es capaz de distinguir si el interlocutor con el que habla, sin verlo, es otra persona o una máquina. En este caso, los participantes debían adaptar esta prueba al entorno de los videojuegos con el objetivo de generar un comportamiento lo más humano posible en los personajes artificiales que aparecen en el mundo virtual. El objetivo era desarrollar un software que fuera capaz de controlar a un personaje del videojuego Unreal Tournament 2004 y que los jueces designados no pudieran distinguir si lo que había detrás del enemigo en cuestión era una persona o un ordenador.

Este año han participado en la final del concurso, que ha tenido lugar en Milán (Italia), quince equipos de países como Brasil, Canadá, EEUU, Italia, Japón, Reino Unido, EEUU y España. Entre los representantes de nuestro país se encuentran Francisco Jesús González López, ingeniero en informática cuyo TFC se centra en el desarrollo de bots inteligentes [2], y Raúl Arrabales, profesor del Departamento de Informática de la Universidad Carlos III de Madrid. “Como mi línea de investigación se centra en la Conciencia Artificial, me pareció que el Test de Turing adaptado a videojuegos era un buen dominio para probar nuestros avances de forma empírica”, explica.

En esta segunda edición del BotPrize, al igual que ya sucediera en la primera y con el test de Turing original, ninguna de los programas informáticos o bots presentados logró engañar al 80 por ciento de los jueces del concurso. “En nuestro caso, no tuvimos tiempo suficiente para programar un buen bot, ya que todavía estoy migrando la arquitectura de control que uso en robots reales a los bots de Unreal Tournament 2004, así que no conseguimos clasificarnos entre los cinco primeros, pero lo volveré a intentar el año que viene con un bot mucho más avanzado, que implemente capacidades de predicción del oponente”.

La complejidad del comportamiento humano

El investigador de la UC3M destaca la complejidad que entraña el generar comportamientos similares a los humanos en cualquier entorno, ya se trabaje en robótica o en simulación de videojuegos, porque resulta necesario combinar diferentes capacidades cognitivas. “Nosotros miramos primero cómo funciona el cerebro, tratamos de entenderlo y luego tratamos de imitarlo en la máquina”, resume Arrabales. “El problema – continúa – es que del cerebro sabemos mucho, pero sólo a un nivel relativamente alto, el de la función que desempeña cada zona concreta del cerebro y cómo se conecta y relaciona con otras áreas cerebrales”. Esto impide reproducir redes neuronales artificiales copiando a las humanas con el suficiente detalle, lo que normalmente obliga a los ingenieros en inteligencia artificial a trabajar en niveles de descripción altos, como en las arquitecturas cognitivas artificiales, con las que se pretende imitar las capacidades humanas más avanzadas.

En cualquier caso, todos los programas finalistas en este concurso sí consiguieron convencer de su humanidad al menos a uno de los jueces. En la final, cada uno de los cinco jueces inicia una partida contra dos contrincantes: una persona y un programa informático. Tras unos 15 minutos de juego, el juez debía identificar a sus oponentes. Los expertos en videojuegos consideran que uno de los mayores triunfos del juego on-line reside en que los aficionados prefieren enfrentarse a jugadores reales que a la inteligencia artificial del videojuego. Ver [3] para una descripción (en inglés) del bot que ganó la edición del BotPrize de este año.

Fuente: OIC/UC3M.

[1] Botprize.org

[2] “Diseño e Implementación de un Personaje Sintético Inteligente para un Videojuego de Acción en Primera Persona”. Proyecto Fin de Carrera. UC3M. Francisco Jesús González López (Ingeniero en Informática). Jul. 2009.

[3] Description of the BotPrize 2009 winning bot.

La Consciencia Evoluciona al Margen de la Genética

Raúl Arrabales Moreno, investigador en consciencia artificial de la Universidad Carlos III de Madrid.

“LA CONSCIENCIA EVOLUCIONA AL MARGEN DE LA GENÉTICA”

Por Ana María Jaramillo V. (Entrevista publicada en Blog Sistemas Inteligentes)

Inspirado en la rama dura de la inteligencia artificial, la misma que ha cautivado audiencias con películas como “Matrix” o “2001: una odisea del espacio”, este ingeniero de formación, pero multidisciplinario por pasión, está convencido de que el objetivo de la investigación en conciencia artificial es entender la naturaleza humana. Persigue, como pocos, el ideal de crear robots con auto-conocimiento, pues afirma que la mejor manera de demostrar que has comprendido algo es imitándolo.

conscious_robot_crawl

Está convencido de que el avance en este campo sólo vendrá de la sinergia entre las disciplinas que se aproximan al estudio de la mente y aquellas otras que se dedican al desarrollo tecnológico. Sabe que vivirá para ver cambios cualitativos importantes y por eso confía en la aplicación no para de modelos cognitivos, que vienen de la psicología o de la neurobiología, a desarrollos informáticos.

Este joven científico navega en un campo controvertido pero fascinante, donde la investigación del día a día puede darse el lujo de la fantasía, avivando preguntas sobre la libertad y la predestinación de los seres humanos y sus creaciones.

AMJ: Por lo que leí en tu blog, confías en que vamos a llegar a crear consciencia artificial, ¿no?

Si, yo confío. Aunque no está claro cuándo ni tampoco están claros los niveles. Ahora mismo una de las líneas más importantes que llevo es poder medir el grado de consciencia pues ese es uno de los grandes problemas. No hay consenso entre los especialistas. Por ejemplo, no está claro del todo si una persona en coma puede soñar o qué grado de consciencia tiene. El termino per se ya es un problema.

Continue reading “La Consciencia Evoluciona al Margen de la Genética”

CERA

CERA (Conscious and Emotional Reasoning Architecture) es una arquitectura software que permite la integración de diferentes componentes cognitivos en un sistema autonomo. CERA está diseñado para ser un entorno de investigación flexible en el cual se puedan integrar y probar diferentes modelos de conciencia y emociones. Los componentes nativos de CERA se han implementado siguiendo metodologías de orientación a objetos. Los requisitos del diseño original son cumplir con la funcionalidad de los nueve módulos de la conciencia racional [1]. Estas clases básicas se pueden extender y modificar de forma que los modelos deseado se puedan representar. Este proceso de software se denomina instanciación CERA, ya que produce una instancia específica de CERA.

En [1] se describe una instanciación específica llamada K-CERA (Khepera CERA), donde se han adaptado las clases básicas para el dominio específico de la exploración de un entorno desconocido con un robot Khepera.  Las clases básicas de CERA se han diseñado para integrar la conciencia racional con el resto de posibles componentes cognitivos de un modelo de la mente. CERA se estructura en una arquitectura de 3 capas.

Diseño en capas de CERA. La capa núcleo es donde se encuentran las clases base del modelo de conciencia racional. La capa de instanciación añade los sistemas cognitivos específicos del problema. Finalmente, la capa supeior contiene la definición de los sistemas sensoriales y motores específicos del agente.

La capa más interior, llamada CERA Core, contiene el modelo de conciencia racional. La siguiente capa es la de instanciación, que contiene los componentes cognitivos específicos del dominio. Sobre la capa de instanciación aparece la capa física, necesaria para adaptar los componentes cognitivos a los mecanismos sensorimotores propios del robot autónomo en cuestión.

El núcleo de CERA define el marco para implementar procesos cognitivos de forma versátil. Sin embargo, la representación del conocimiento no está definica concretamente en esta capa. Se usa una clase abstracta para definir el conocimiento a este nivel de implementación, de forma que los procesos sean independientes de la representación elegida posteriormente. Esto significa que el núcleo de CERA per se nu puede ser instanciado. Se requiere una capa de instanciación a un dominio específico para construir un modelo completo. Analogamente, la capa física se necesita para implementar los sistemas de control propios del agente autónomo.

[1] Arrabales Moreno, R. and Sanchis de Miguel, A. “A Machine Consciousness Approach to Autonomous Mobile Robotics”. In: 5th International Cognitive Robotics Workshop. AAAI-06. Boston, MA. July 2006.