Los Hacedores de Cerebros

Los Hacedores de Cerebros.

Cómo los científicos están perfeccionando las computadoras, creando un rival del cerebro humano.

David H. Freeman.
Editorial Andrés Bello. 1995.
272 páginas. Español (México).
ISBN: 9561313243

Este es un libro un tanto antiguo que encontré hace tiempo en una pequeña librería (es la traducción a español del libro titulado “Brainmakers: How scientists are moving beyond computers to create a rival to the human brain.”). La traducción a español se ha realizado en Méjico, por lo tanto puede sonar un poco extraña para el lector español, en cualquier caso es bastante leíble para cualquier lector latino. Aunque ya han pasado casi 15 años desde que se editó este libro, me parece que es bastante interesante para aquellos que quieran empezar a adentrarse en este mundo con una introducción sencilla a la Inteligencia Artificial y la Consciencia Artificial.

Aunque el libro no está dedicado específicamente al campo de la Consciencia Artificial, el último capítulo trata este tema y también discute los argumentos básicos de la IA fuerte. Por lo tanto, creo que este libro es un buen punto de inicio para alguien que quiera iniciarse tanto en el mundo de la IA en general como en la Consciencia Artificial específicamente. Lo bueno es que no se trata simplemente de un libro descriptivo, en vez de eso, cubre los enfoques bio-inspirados de la IA a través de un repaso histórico, lo cual creo que es magnífico, porque proporciona al lector la información de fondo necesaria para entender completamente los grandes problemas que hay detrás de los actuales avances en este campo.

El libro no debería tomarse como un repaso exhaustivo de los enfoques y avances de la IA. De hecho, está bastante centrado en los enfoques inspirados en la naturaleza (bio-inspirados), siendo las Redes de Neuronas Artificiales, las Redes de Neuronas Semi-Artificiales y la Computación Evolutiva el foco principal del libro. Otros paradigmas, como los Autómatas Celulares y los Enjambres se contemplan brevemente, y otros enfoques se ignoran directamente.

En resumen, este libro no es lo último en técnicas de IA bio-inspiradas, tampoco es un repaso histórico exhaustivo del campo de la IA, pero merece la pena leerlo si estás interesado en algunos de los más relevantes avances de las últimas décadas que han dado lugar al estado actual de la IA. En cualquier caso, esta lectura debería complementarse con otras fuentes para evitar tener una visión muy sesgada de la evolución de la IA fuerte.

 

 

 

Inteligencia Artificial en Juegos y Mundos Virtuales

Inteligencia Artificial (AI Bots) en Videojuegos y Mundos Virtuales

Normalmente cuando hablamos de agentes situados como el objeto de la investigación en Inteligencia Artificial o en Consciencia Artificial siempre pensamos en agentes físicos, como los típicos robots autónomos. Una de las razones por las que tendemos a usar robots físicos como parte de nuestro diseño de experimentos es porque creemos que el cuerpo físico juega un papel crucial en la inteligencia y en la consciencia.

Debido a las limitaciones de coste y tiempo, durante las fases de desarrollo solemos usar herramientas de simulación para poder probar facilmente nuestras hipótesis. Sin embargo, el objetivo final es siempre el robot físico y su aplicación correspondiente en el mundo real. Al menos esta es la conclusión obvia en el campo de la robótica.

Pero, ¿qué pasa con las aplicaciones de la IA que sólo “viven” en mundos virtuales? ¿Merecen menos atención de los campos de investigación de la IA? Recientemente estamos asistiendo a un interés creciente en aplicaciones que residen completamente dentro de mundos virtuales y de videojuegos. Algunos ejemplos relevantes son Second Life y World of Warcraft. Personalmente creo que el éxito de estos productos se basa en la interacción entre humanos (jugadores, colegas, socios, etc.). El problema es que actualmente no conseguimos tener el mismo nivel de interacción entre humanos y AI Bots (en inglés el término AI Bot se usa para designar a los agentes autónomos virtuales controlados por programas de Inteligencia Artificial).

Desde mi punto de vista, no hay duda que los AI Bots son un ejemplo de agentes situados. Si se pueden considerar como agentes con cuerpo (embodied) es otra cuestión. En cualquier caso podríamos decir que son agentes con un cuerpo virtual que responde a las leyes físicas simuladas por el correspondiente mundo virtual o videojuego.

Recursos de desarrollo para investigación con Bots de Inteligencia Artificial

Recientemente he estado buscando entornos de simulación ricos en detalles para probar mi arquitectura de Consciencia Artificial como control de un AI Bot. Así que he confeccionado una pequeña lista de motores, SDK, y herramientas de desarrollo (ten en cuenta que no estoy considerando aquí ninguna plataforma de desarrollo para robótica como MRDS o URBI, también he excluido herramientas de desarrollo completo de juegos. Mi interés es específico en la programación de bots).

Videojuegos

En el campo de los videojuegos, en principio cualquier juego liberado (con el código fuente disponible) podría valer para la experimentación con jugadores autónomos basados en técnicas de IA. Un ejemplo clásico sería el famoso Quake (el código fuente está disponible como GPL a través de ID Software). Para ver una lista completa de juegos liberados puedes visitar http://liberatedgames.com/

De todas formas, tener el código fuento no es un requisito imprescindible para programar los bots de un juego. De hecho, si queremos desarrollar bots con Inteligencia Artificial para los juegos más actuales, lo normal es que no tengamos acceso al código fuente. Sin embargo, la mayoría de los videojuegos modernos proporcionan herramientas para añadir características nuevas al juego como mapas, bots, modificaciones, etc. Algunas de estas herramientas son particularmente útiles para desarrollar interfaces externos, así podemos ejecutar la lógica de los AI bots externamente. Esto también es particularmente útil si lo que queremos es programar los bots en un lenguaje de programación distinto de el del juego.

Un buen ejemplo de esta flexibilidad es la serie Unreal Tournament de Epic Games. Este juego viene con un lenguaje de programación llamado UT Script que ha permitido a los desarrolladores escribir mutators (modificaciones y componentes adicionales para el juego).  En el caso del Unreal Tournament GameBots mutator permite obtener el estado del juego y mandar comandos al servidor de juego.

El componente GameBots se ha usado para construir extensiones de API para que puedas programar tu bot usando Java o C#. Echa un vistazo a Pogamut 2 para la programación en Java de tu Bot en UT 2004 y
UT3 .NET Bots para programarlos en .NET para Unreal Tournament 3.

ORTS es otro tipo de ejemplo. En este caso se trata de un juego de estrategia en tiempo real. Mientras que los juegos de primera persona (FPS) son adecuados para ciertos tipos de investigación en IA, los entornos de RTS también son adecuados para sistemas multi-agente y problemas de planificación.

Mundos Virtuales

En realidad, los videojuegos y los mundos virtuales están muy relacionados, sobre todo si hablamos de MMOG (Massively Multiplayer Online Games – Juegos Online Multijugador Masivos). Creo que Second Life es el ejemplo más conocido. Si quieres experimentar y desarrollar aplicaciones en este entorno puedes echar un vistazo a libsecondlife.

Multiverese también es otro producto que merece la pena mirar en este sentido. Es una plataforma para el desarrollo de mundos virtuales y MMOGs (se basa en OGRE, un motor de visualización gráfica de código abierto).

realXtend es otra plataforma de código abierto para la creación de mundos virtuales. Se basa en  OpenSim (un servidor de aplicaciones 3D de código abierto).

Inmortalizando la Conciencia con Inteligencia Artificial

Proyecto Lifenaut. Inmortalizando la Conciencia por medio de un avatar virtual con Inteligencia Artificial.

Una charla con Nick Mayer, Director de Sistemas Cyberbiológicos de la Fundación Terasem.

El objetivo del proyecto Lifenaut es crear un sistema automático, amigable y accesible a través de la Web que permita a cualquier persona crear archivos detallados de personalidad desde cualquier lugar del mundo.

Continue reading “Inmortalizando la Conciencia con Inteligencia Artificial”

Conscious-Robots.com es partner de Microsoft Robotics Studio

Conscious-Robots.com se convierte en partner de Microsoft Robotics Studio

Tal y como anunció el Grupo de Robótica de Microsoft (Microsoft Robotics Group) el pasado mes de Enero, Conscious-Robots.com ha entrado a formar parte del programa de socios de Microsoft Robotics Studio (Microsoft Robotics Studio Partner Program – MSRSPP). Conscious-Robots.com es una organización dedicada a la investigación y el desarrollo en el área de la Robótica Cognitiva. Nuestro principal objetivo es explorar, desarrollar y promover avances tecnológicos en el estudio científico de la consciencia artificial. Nuestra tecnología de consciencia artificial se basa en MSRS y está pensada para ser aplicada en campos muy exigentes como la seguridad, la sanidad y los robots sociales.

 

 

Emociones, juicio moral y razón

 Aunque los enfoques clásicos en IA normalmente han ignorado la dimensión sentimental, ésta es cada vez más importante en las arquitecturas cognitivas artificiales actuales. Durante las últimas décadas, el estudio neurobiológico de las emociones ha proporcionado un nuevo entendimiento de los mecanismos subyacentes. El análisis de pacientes con daños cerebrales y el uso de técnicas de neuro-imagen proporcionan valiosas pistas a los científicos acerca del funcionamiento de nuestros cerebros emocionales

En el libro “Descartes’ Error: Emotion, Reason, and the Human Brain” escrito por el neurobiólogo Antonio R. Damasio se plantea el argumento de que los sentimientos y la razón son muy dependientes uno del otro [1]. El famoso caso de Phineas Gage, cuyos lóbulos frontales se dañaron en un accidente se explora en detalle en este libro. Phineas P. Gage (1823-1860) sufrió daño cerebral en el trabajo cuando una vara de hierro traspasó accidentalmente su cráneo (ver ilustración).

{mosimage} Se dice que el caso de Gage es la primera prueba clínica del rol del lóbulo frontal en la personalidad y la interacción social. De hecho, después de sufrir el accidente, los amigos de Gage comentaron que él ya no era la misma persona, se había convertido en un insociable. El fragmento siguiente (en inglés) es del médico de Gage: Harlow (1968):

Gage was fitful, irreverent, indulging at times in the grossest profanity (which was not previously his custom), manifesting but little deference for his fellows, impatient of restraint or advice when it conflicts with his desires, at times pertinaciously obstinate, yet capricious and vacillating, devising many plans of future operations, which are no sooner arranged than they are abandoned in turn for others appearing more feasible. A child in his intellectual capacity and manifestations, he has the animal passions of a strong man. Previous to his injury, although untrained in the schools, he possessed a well-balanced mind, and was looked upon by those who knew him as a shrewd, smart businessman, very energetic and persistent in executing all his plans of operation. In this regard his mind was radically changed, so decidedly that his friends and acquaintances said he was ‘no longer Gage. [2]

Damasio propone una teoría llamada hipótesis del marcador somático, que sugiere una relación entre los lóbulos frontales, las emociones y la toma de decisiones. Desde el caso de Gage, Antonio R. Damasio, Marc Hauser y sus colegas han estudiado seis casos más de daños localizados en el cortex prefrontal ventromedial (VMPC), uno de los nodos emocionales y sociales del cerebro. Estos estudios han concluido que este tipo de daños incrementan los juicios morales utilitarios [3]. En este contexto, el término utilitario viene del utilitarismo y se refiere a los juicios, o dilemas morales, en los que el conflicto se produce entre una agregación y un comportamiento emocionalmente inaceptable. Por ejemplo, tener que sacrificar la vida de una persona para salvar un número mayor de vidas.

Según Raymond J. Dolan, Los pacientes con lesiones prefrontales a menudo muestran comportamientos irresponsables, aunque intelectualmente no tienen ninguna deficiencia. De forma similar, las lesiones ocurridas en la infancia pueden impedir que se adquiera un conocimiento sobre los estándares aceptados de comportamiento moral. [4]

[1] Antonio R. Damasio (1995) Descartes’ Error: Emotion, Reason, and the Human Brain
[2] Harlow, J.M. (1868). “Recovery from a Passage of an Iron Bar through the Head”. Publications of the Massachusetts Medical Society 2: 327-347.
[3] Michael Koenigs, Liane Young, Ralph Adolphs, Daniel Tranel, Fiery Cushman, Marc Hauser & Antonio Damasio. Nature 446, 908-911 (19 April 2007).
[4] Raymond J. Dolan. On the neurology of morals. Nature Neuroscience 2, 927 – 929 (1999).

Enlaces relacionados:

Phineas Gage information page: http://www.deakin.edu.au/hmnbs/psychology/gagepage/index.php
Fact sheets on brain injury: http://www.braininjury.org.au/portal/index.php

The Cognition and Affect Project

The Cognition and Affect Project

Explorando arquitecturas para agentes inteligentes:
(naturales o artificiales)

(En Inglés)
The CogAff project is a broad research effort on the principles for designing and explaining architectures for whole intelligent agents. This highly multi-disciplinary project take multiple approached from different scientific fields. One of the goals is understanding consciousness.

Visit the website for a detailed overview:

Robots y Libre Albedrío

En cualquier instante la mente tiene que tomar decisiones y multitud de acciones inconscientes se llevan a cabo. Nuestra mente consciente contínuamente confabula creando la ilusión de que es ella la que manda. Pero, ¿quién está realmente al mando?

¿Puede la ciencia decirnos que es exactamente la naturaleza humana? ¿Podemos reproducirlo en máquinas artificiales? Típicamente, la conciencia y el libre albedrío han evadido el entorno científico. Sin embargo, en las últimas décadas, filósofos y científicos han comenzado a trabajar juntos en la búsqueda de una explicación científica de la mente. En el comentario del libro de Dennett “La Libertad Evoluciona” [1], escrito por Simon Blackburn [2], se expone por qué los científicos necesitan a los filósofos en este área. Los experimentos de Libet muestran que:

[…] la actividad neuronal que inicia una acción empieza alrededor de un tercio de segundo antes de la decisión consciente del agente de actuar. […]

Normalmente, los neurocientíficos han interpretafo esto como la ilusión de estar al mando. Dennett defiende que esta es una postura errónea. En su lugar Dennett especifica que un agente consciente debe ser visto como un continuo, donde no hay un momento concreto de decisión. La concepción intervencionista deducida a partir de los experimentos de Libet normalmente lleva a los científicos a pensar que la evolución y la cultura crean una prisión para la mente, donde todo está predeterminado a priori. Dennet argumenta lo contrario, él cree que la evolución y la cultura son los diferenciadores clave que hacen a los humanos capaces de moldear sus respuestas e imaginar el futuro. En relación con el enlace entre pensamiento y acción:

“Tenemos el poder de vetar nuestros instintos y después vetar nuestros vetos”, dice Dennett, “Tenemos el poder de la imaginación, de ver e imaginar futuros”.

Continue reading “Robots y Libre Albedrío”

IA Fuerte y Conciencia Artificial

¿Es la conciencia artificial un aspecto clave de la rama dura de la inteligencia artificial (IA fuerte)?

¿Se puede aplicar la conciencia artificial como un enfoque pragmático en la rama débil de la IA?

¿Son la IA fuerte y la conciencia artificial la misma cosa?

El campo de la conciencia artificial es relativamente inmaduro si lo vemos como un paradigma científico e ingeniril multidisciplinar [1]. Sin embargo, podemos tratar de contestar a las preguntas anteriores con un buen grado de confianza.

En contraposición a la IA débil, la rama dura de la IA (IA fuerte) establece que un ordenador convenientemente programado es una mente. En general, la IA fuerte supone que es posible construir máquinas que realmente pueden pensar y sentir. En este contexto, la conciencia artificial se referiría a la parte emocional de la hipotética máquina propuesta por la IA fuerte. Desde mi punto de vista, la mayoría de las formas de razonamiento son posibles sin ninguna capacidad de consciencia o emoción. Un ser así se denomina (filosóficamente) zombi [2]. Por lo tanto podríamos argumentar que la conciencia artificial es clave para la IA fuerte “consciente”, pero podría ser obviada en una forma relajada de IA fuerte “zombi”. Esto sería verdad si el razonamiento y la conciencia son realmente independientes, pero… ¿qué pasaría si razonamiento y conciencia están íntimamente relacionados? ¿mayor capacidad de razonamiento implica mayor conciencia? En mi humilde opinión, esta pregunta no se puede responder a no ser que se comprender verdaderamente la naturaleza de la conciencia. Tal explicación incluiría los aspectos fenomenológicos de la conciencia (ver definición de Qualia) [3].

Incluso aunque la conciencia artificial se puede identificar fácilmente como un paradigma de la ciencia ficción, creo que puede tener un papel importante en el dominio de la IA débil. La aplicación de modelos de la conciencia humana a máquinas y su programación es una forma de bioinspiración. Podemos estudiar los procesos cognitivos relacionados con la conciencia (como la atención o la propiocepción), y utilizar los mismos principios en máquinas artificiales. Un asunto mucho más arduo es la dimensión fenomenológica de la conciencia, cuyos fundamentos biológicos subyacentes no son conocidos. Este es uno de los huecos que quedan por llenar en el campo de la IA fuerte.

[1] http://www.conscious-robots.com/en/conscious-machines/the-field-of-machine-consciousness/what-is-machine-conscious.html

La Teoría de la Inteligencia Maquiavélica

La teoría más popular que da explicación a la rápida evoluciójn del cerebro humano es la hipótesis de la “Inteligencia Maquiavélica” (también conocida como hipótesis del cerebro social).

El cerebro humano ha evolucionado mucho más rápido que el de otros mamíferos. En sólo 25 millones de años han tenido lugar multitud de mutaciones en los genes humanos. La hipótesis de la inteligencia maquiavélica podría explicar este fenómeno, y podría darnos la razón por la cual tenemos un cerebro tan grande y complejo. De acuerdo con esta teoría, la intensa competición social fue (y sigue siendo hoy en día) la principal razón por la cual el cerebro humano ha evolucionado hasta convertirse en un órgano extremadamente complejo y que consume el 20% de nuestra energía. La selección natural promocionó a aquellos individuos cuyas estrategias sociales les proporcionaban éxito social y reproductivo. Sofisticadas estrategias “maquiavélicas”, que implicaban comportamientos sociales como las mentiras, la astucia o la creación de grupos sociales fueron la forma de tener éxito en la emergente y compleja sociedad.

Sergey Gavrilets y Aaron Vose, de la Universidad de Tenesse, han proporcionado datos que apoyan esta hipótesis. Han desarrollado un modelo matemático que simula el desarrollo del cerebro humano de acuerdo a la teoría de la inteligencia maquiavélica. En su modelo, los genes controlan el cerebro que inventa y aprende estrategias sociales (memes). Estas estrategias las usan los machos en su competición por aparearse. El modelo sugiere que la capacidad cerebral evoluciona más rápidamente que la capacidad de aprendizaje, y que la ventaja de tener un gran cerebro deja de serlo tanto cuando los humano estamos más expuestos a los memes en una sociedad moderna.

Fuente: The dynamics of Machiavellian intelligence . Proc. Natl. Acad. Sci. USA, 10.1073/pnas.0601428103. Abstract.