AND Corporation

AND Corporation ha desarrollado y comercializado un proceso conocido como Tecnología Neuronal Holográfica.

AND Corporation ha desarrollado un completo modelo neuro-mórfico del cerebro basado en la tecnología neuronal holográfica/cuántica (H.Ne.T.). La compañía lleva distribuyendo este producto desde hace tiempo. Hay más detalles al respecto en: http://www.andcorporation.com/.

John Sutherland de AND Corporation describe la relación entre la tecnología H.Ne.T. y la conciencia de la siguiente forma (en inglés):

Continue reading “AND Corporation”

Teoría de la Integración de Información

De acuerdo con esta teoría, la conciencia se corresponde con la capacidad de integrar información que tiene un sistema [1]. Hay dos conceptos principales en esta teoría: la diferenciación y la integración.

De hecho, en este contexto la conciencia se caracteriza como un equilibrio entre la diferenciación y la integración. La diferenciación se refiere a la disponibilidad de un gran repertorio de posibles experiencias conscientes. Cada experiencia concreta se diferencia (o se discrimina) de las otras. La integración se refiere al caracter unitario de cada una de estas experiencias, es decir, los contenidos conscientes se experimentan como una unidad, incluso aunque estén compuestos por muchas dimensiones.

Tononi introdujo el valor Φ como una medida de la conciencia de un sistema. De hecho Tononi caracteriza la conciencia como la capacidad de integrar información, siendo Φ la medida de la cantidad de información que es capaz de integrar el sistema. En [1] Tononi dice: “Φ es la cantidad de información causalmente efectica que se puede integrar a través del enlace de información más débil de un subconjunto de elementos”.

La principal implicación de la hipótesis propuesta por Tononi es que cualquier sistema físico capaz de integrar información es consciente hasta el punto indicado por la medida Φ. Esto implica que la implementaciones artificiales capaces de integrar información y que tienen un valor Φ alto tienes experiencias conscientes.

Más sobre la Teoría de la Integración de la Información (Information Integration Theory):

[1] Tononi, G. An information integration theory of consciousness. BMC Neuroscience 2004, 5:42. 2004. http://www.biomedcentral.com/1471-2202/5/42

 

Cómo construir un robot que sienta

Este artículo se divide en dos partes:
– Un resumen de la charla invitada de Kevin O’Regan en el CogSys 2010, realizado por Raúl Arrabales.
– Comentarios adicionales acerca del yo y el papel de la acción en la cognición, escrito por Kevin O’Regan.

¿Cómo construir un robot que sienta?

conscious_robot_crawl“Cómo contruir un robot que sienta” fue el título de la charla magistral de Kevin O’Regan en la conferencia CogSys 2010 que se celebró la semana pasada en Zúrich. Durante su charla, O’Regan ofreció una introducción al conocido como “problema duro” de la conciencia (término acuñado por Chalmers) y habló de su teoría sensoriomotora para explicar cómo se produce la conciencia (fenomenológica) [1]. Tanto esta charla como muchas de la ideas relacionadas con la misma son de especial interés para los investigadores de la Conciencia Artificial, ya que O’Regan ofrece una explicación para la producción de la experiencia consciente que virtualmente elimina el problema duro, y por consiguiente el propio salto explicativo (“explanatory gap”). A continuación trataré de resumir las ideas clave que me parecieron más interesantes tanto de la charla como de las conversaciones que tuvimos durante la conferencia con O’Regan.

Usando la rojez del rojo, un ejemplo muy típico en filosofía de la mente, O’Regan abordó el problema del diseño de un robot capaz de sentir. Nótese que en este contexto no se usa la palabra sentir con la acepción que se usa en el trabajo de Damasio, si no que se refiere al cómo-es-ser, o los qualia asociados a los contenidos conscientes, es decir, las sensaciones asociadas a la experiencia consciente.

Continue reading “Cómo construir un robot que sienta”

TNGS – Teoría de Selección de Grupos de Neuronas

TNGS – Teoría de Selección de Grupos de Neuronas

TNGS y la hipótesis del Núcleo Dinámico (Dynamic Core) es una teoría propuesta por Gerald M. Edelman como una explicación de los correlatos neuronales de la conciencia. Como su nombre indica la teoría se basa en el concepto de selección.

En el cerebro se genera un gran número de caminos neuronales de entre los cuales un reducido grupo de más valor tiene que ser seleccionado para generar comportamientos adaptativos. En otras palabras, el cerebro es un sistema selectivo. La selección se basa en el desarrollo y la experiencia. Esa es la razón por la cual los circuitos neuronales son muy diferentes si comparamos el cerebro de una persona con el de otra.

Durante el desarrollo del cerebro y el aprendizaje, se generan grupos de neuronas que tienden a emitir impulsos de forma sincronizada. Un gran número de estos grupos o circuitos se seleccionan de acuerdo a su valor como generadores de comportamientos útiles y adaptativos.

TNGS explica la conciencia en términos de lo que se denomina el Núcleo Dinámico, que consiste en extensas interacciones reentrantes en el sistema talamocortical.  Aquí el concepto de reentrada se refiere al proceso dinámico de interacciones rápidas y recíprocas entre mapas y núcleos neuronales. Edelman y Tononi creen que la conciencia se produce gracias a estos procesos de reentrada, los cuales serían capaces de proporcionar la capacidad discriminatoria de la experiencia consciente así como su integración. En pocas palabras, TNGS defiende la caracterización de la conciencia como un proceso dinámico, donde los correlatos neuronales de la conciencia no se pueden identificar en un punto específico del cerebro sino que se asocia con la dinámica de reentrada existente en el sistema talamocortical.

Para leer más acerca de la TNGS (Theory of Neural Group Selection):
– Edelman, G and Tononi, G. A Universe of Consciousness. How Matter becomes Imagination. Basic Books. 2001.
– Edelman, G. Bright Air, Brilliant Fire: On the Matter Of the Mind. Basic Books. 1993.

 

CRUBOTS

Utilidades de Conscious-Robots.com para Simulación de Robots

CRUBOTS es un conjunto de servicios de Robotics Develops Studio (MRDS) desarrollados como parte de una linea de investigación en Conciencia Artificial. Aunque estos servicios se desarrollaron originalmente para funcionar conjuntamente con la arquitectura cognitiva CERA-CRANIUM, se pueden reutilizar para cualquier proyecto de robótica.

explorersimsonar_3

Como trabajamos principalmente con el robot Pioneer 3DX, la mayoría de los servicios de simulación se han diseñado para que reproduzcan con la mayor fidelidad el robot móvil real.

CRUBOTS se distribuye como un archivo ZIP (https://github.com/raul-arrabales/crubots) que contiene el código fuente de todos los servicios MRDS. Cada servicio se encuentra en su propia carpeta bajo el directorio packages/crubots en el directorio raíz de MRDS.

Mira más abajo para ver las instrucciones específicas y una descripción de los servicios que se incluyen en CRUBOTS.

Continue reading “CRUBOTS”

BICS 2010. Brain-Inspired Cognitive Systems Conference

BICS 2010: Brain-Inspired Cognitive Systems Conference

Madrid, España, 14-16 de Julio de 2010
www.bicsconference.org
Ricardo Sanz, General Chair
Sponsored by ICSC
[Due to several requests, the submission deadline for BICS 2010 has been extended to: January 18, 2010]

BICS 2010 es una conferencia de varias líneas organizada en base a cuatro simposios muy relacionados (NC 2010, BIS 2010, CNS 2010 y MoC 2010). Las tres conferencias BICS previas fueron BICS 2008 (Sao Luis, Brasil), BICS 2006 (Lesbos, Greece) y BICS 2004 (Stirling, UK).

Simposios de la Conferencia

– Sixth International ICSC Symposium on Neural Computation (NC 2010) Fifth International ICSC
– Symposium on Biologically Inspired Systems (BIS 2010).
– Fourth International ICSC Symposium on Cognitive Neuroscience (CNS 2010).
– Third International ICSC Symposium on Models of Consciousness (MoC 2010).

Motivación

Los Sistemas Cognitivos Inspirados en el Cerebro (Brain Inspired Cognitive Systems) – BICS 2010 pretende reunir a los principales científicos e ingenieros que usan métodos analíticos y sintéticos tanto para comprender las increibles propiedades de procesamiento de los sistemas biológicos y, específicamente aquellos que presenta el cerebro, y explotar ese conocimiento para avanzar los métodos ingenieriles destinados a la construcción de sistemas artificiales con niveles cognitivos más altos.

BICS 2010 es un punto de encuentro para ingenieros de sistemas cognitivos y neurocientíficos donde se fomentan las ideas multidisciplinares con la esperanza de alcanzar nuevo conocimiento sobre la naturaleza, operación y capacidades del cerebro. Este enfoque multidisciplinar es necesario porque los datos cada vez más precisos sobre el cerebro están produciendo una necesidad creciente tanto de comprensión cuantitativa como teórica y una capacidad asociada para manupular estos datos y trasladarlos a las aplicaciones ingenieriles basadas en teorías bien definidas.

BICS 2010 está pensada tanto para investigadores que pretenden construir sistemas inspirados en el cerebro con capacidades cognitivas superiores, como para científicos de ciencias naturales que usan y desarrollan modelos matemáticos y enfoques ingenieriles para una mejor comprensión de los sistemas biológicos complejos como el cerebro.

BICS 2010 está organizada en cuatro grandes simposios interrelacionados que se estructuran en patrones que fomentan la inter-fertilización entre los diferentes temas de los simposios. Esto enfatiza el rol de BICS como un punto de encuentro principal para investigadores y profesionales en las áreas de la biología y sistemas cognitivos artificiales. Los debates sobre estas disciplinas enriquecerán a los investigadores con perspectivas contemporaneas de diversos campos científicos.

Arquitectura de Conciencia Artificial de Pentti Haikonen

Arquitectura de Conciencia Artificial de Pentti Haikonen
Trung Doan (doanviettrung a_t gmail dot com).
(traducción a español: Raúl Arrabales)

La contribución de Pentti Haikonen al reto de la conciencia artificial es una arquitectura basada en principios cognitivos. Haikonen también ha desarrollado algunos microchips electrónicos como un primer paso para la construcción de máquinas basadas en esta arquitectura.

A continuación veremos como la máquina de Haikonen podría cobrar conciencia una vez construida, analizando algunas de sus capacidades cognitivas, aprovechando este proceso para analizar brevemente la arquitectura de Haikonen.

La máquina de Haikonen percibe

Imaginemos que las cámaras de la máquina de Haikonen están enfocadas hacia una pelota amarilla. El patrón de píxeles de la cámara alimenta un circuito preprocesador que produce un vector de, digamos, 10.000 señales, cada señal es transportada, por ejemplo, por un cable. Un cable es la salida del atributo “redondez” de la circuitería del preprocesador, en este caso la señal indica “Encendido” (On). Otro cable, correspondiente a la circuitería que detecta la “cuadradez”, estaría en “Apagado” (Off), por ejemplo, no teniendo voltaje alguno. Un grupo de cables es la salida de la circuitería de análisis de espectro de frecuencias. El cable correspondiente a frecuencias que los humanos reconocemos como “amarillo” está Encendido mientras que los cables “rojo”, “azul”, etc. están Apagados. Habría muchos otros grupos de cables representando tamaño, brillo, bordes, etc.

La máquina no representa internamente la pelota como un gráfico redondo, tampoco como un conjunto de números que indican diámetro, color, etc. si no a través de este vector de señales. Haikonen llama a esto una “representación basada en señales distribuidas”.

Supongo que a la máquina se le presentan varias pelotas de diferentes tamaños, colores, etc. una en cada instante, y cada vez su micrófono oye un patrón de sonido que los humanos entendemos como la palabra “pelota”. Debido a que aparecen al mismo tiempo repetidamente, la máquina asocia el patrón de sonido al patrón visual. El proceso de percepción de la máquina se lleva a cabo mediante la construcción de este tipo de asociaciones.

Después de que las diferentes pelotas se asocien con el patrón de sonido, la máquina finalmente aprende a asociar el patrón de sonido “pelota” con cualquier cosa que sea redonda.

Continue reading “Arquitectura de Conciencia Artificial de Pentti Haikonen”

Comentario de Haikonen sobre el artículo de Doan

Conscious-Robots.com ha invitado al Dr. Haikonen a comentar sobre el reciente artículo sobre la arquitectura cognitiva de Haikonen escrito por Trung Doan (traducido a español por Raúl Arrabales):

Deseo agradecer a Trung Doan su análisis de mi teoría sobre la conciencia artificial. Trung Doan ha hecho un buen trabajo en este artículo al ilustrar con ejemplos prácticos los principios básicos de mi arquitectura, elaborados según las ideas que explico en mi libro “Robot Brains”.

Me gustaría contribuir con algunos comentarios. Mi implementación se basa en las neuronas asociativas, las cuales forman memorias asociativas. Las memorias asociativas son un invento bastante antiguo, pero que no han tenido mucha popularidad debido al problema conocido como interferencia, que limita la capacidad de la memoria. Mi contribución está relacionada con este problema de la interfencia y en mi libro describo métodos que permiten el uso libre de interferencia de la capacidad total de la memoria. La capacidad de una memoria asociativa puede ser la misma que la capacidad de una memoria de acceso aleatorio de complejidad similar. Sin embargo, si sólo se usa una capacidad parcial, la memoria asociativa también realiza un proceso de clasificación.

Trung Doan indica correctamente que la maquinaria neural no opera con valores numéricos, sino que las señales individuales representan atributos elementales de las entidades percibidas y estos son la base del significado de estas señales. Es útil indicar que la maquinaria de los grupos de señales que representan algunas entidades percibidas se pueden utilizar para objetos completamente diferentes; estos grupos de señales actúan como símbolos para estos objetos. Esta característica es un prerrequisito necesario para, por ejemplo, el lenguaje natural y el habla interior.

Continue reading “Comentario de Haikonen sobre el artículo de Doan”

Segundo Número de la IJMC

Segundo número de la revista International Journal of Machine Consciousness

El 2º número de la revista International Journal of Machine Consciousness está ya disponible online (Vol. 1. Issue 2. Diciembre 2009). Este segundo número de IJMC contiene una selección de artículos del 2008 Nokia Workshop on Machine Consciousness; Editor invitado: P.O.A. Haikonen.

Continue reading “Segundo Número de la IJMC”

Máquinas que juegan a ser humanas

En busca de máquinas que juegan a ser humanas

(Al menos en los vídeojuegos)

Investigadores de la UC3M han participado en un concurso internacional con el objetivo de mejorar la inteligencia virtual que se emplea en los mundos virtuales. El reto de los participantes consistía en desarrollar un programa capaz de actuar como una persona en un videojuego.

La segunda edición de este concurso, conocido como BotPrize [1], partía de la prueba desarrollada por Alan Turing en 1950, que consideraba que se puede hablar de inteligencia artificial cuando un humano no es capaz de distinguir si el interlocutor con el que habla, sin verlo, es otra persona o una máquina. En este caso, los participantes debían adaptar esta prueba al entorno de los videojuegos con el objetivo de generar un comportamiento lo más humano posible en los personajes artificiales que aparecen en el mundo virtual. El objetivo era desarrollar un software que fuera capaz de controlar a un personaje del videojuego Unreal Tournament 2004 y que los jueces designados no pudieran distinguir si lo que había detrás del enemigo en cuestión era una persona o un ordenador.

Este año han participado en la final del concurso, que ha tenido lugar en Milán (Italia), quince equipos de países como Brasil, Canadá, EEUU, Italia, Japón, Reino Unido, EEUU y España. Entre los representantes de nuestro país se encuentran Francisco Jesús González López, ingeniero en informática cuyo TFC se centra en el desarrollo de bots inteligentes [2], y Raúl Arrabales, profesor del Departamento de Informática de la Universidad Carlos III de Madrid. “Como mi línea de investigación se centra en la Conciencia Artificial, me pareció que el Test de Turing adaptado a videojuegos era un buen dominio para probar nuestros avances de forma empírica”, explica.

En esta segunda edición del BotPrize, al igual que ya sucediera en la primera y con el test de Turing original, ninguna de los programas informáticos o bots presentados logró engañar al 80 por ciento de los jueces del concurso. “En nuestro caso, no tuvimos tiempo suficiente para programar un buen bot, ya que todavía estoy migrando la arquitectura de control que uso en robots reales a los bots de Unreal Tournament 2004, así que no conseguimos clasificarnos entre los cinco primeros, pero lo volveré a intentar el año que viene con un bot mucho más avanzado, que implemente capacidades de predicción del oponente”.

La complejidad del comportamiento humano

El investigador de la UC3M destaca la complejidad que entraña el generar comportamientos similares a los humanos en cualquier entorno, ya se trabaje en robótica o en simulación de videojuegos, porque resulta necesario combinar diferentes capacidades cognitivas. “Nosotros miramos primero cómo funciona el cerebro, tratamos de entenderlo y luego tratamos de imitarlo en la máquina”, resume Arrabales. “El problema – continúa – es que del cerebro sabemos mucho, pero sólo a un nivel relativamente alto, el de la función que desempeña cada zona concreta del cerebro y cómo se conecta y relaciona con otras áreas cerebrales”. Esto impide reproducir redes neuronales artificiales copiando a las humanas con el suficiente detalle, lo que normalmente obliga a los ingenieros en inteligencia artificial a trabajar en niveles de descripción altos, como en las arquitecturas cognitivas artificiales, con las que se pretende imitar las capacidades humanas más avanzadas.

En cualquier caso, todos los programas finalistas en este concurso sí consiguieron convencer de su humanidad al menos a uno de los jueces. En la final, cada uno de los cinco jueces inicia una partida contra dos contrincantes: una persona y un programa informático. Tras unos 15 minutos de juego, el juez debía identificar a sus oponentes. Los expertos en videojuegos consideran que uno de los mayores triunfos del juego on-line reside en que los aficionados prefieren enfrentarse a jugadores reales que a la inteligencia artificial del videojuego. Ver [3] para una descripción (en inglés) del bot que ganó la edición del BotPrize de este año.

Fuente: OIC/UC3M.

[1] Botprize.org

[2] “Diseño e Implementación de un Personaje Sintético Inteligente para un Videojuego de Acción en Primera Persona”. Proyecto Fin de Carrera. UC3M. Francisco Jesús González López (Ingeniero en Informática). Jul. 2009.

[3] Description of the BotPrize 2009 winning bot.