Foro del Futuro Próximo (FFP 2016)

Foro Futuro PróximoEl Foro del Futuro Próximo 2016 se celebra el 30 de Sept. y 1 de Oct. en la Escuela de Ingenieros Industriales de la Universidad Politécnica de Madrid. Este año analizamos el impacto de las tecnologías de lo mental como son la cognición, la inteligencia artificial o la neurociencia. Entre los temas que se tratarán se incluyen: big data, realidad virtual, robótica social, la singularidad, prospectiva y tecnooptimismo, neurociencia cognitiva, la nueva humanidad o las máquinas autónomas.

Inscríbete gratis y descubre el programa de conferencias en futuroproximo.org.

En mi ponencia exploraremos el impacto en la sociedad de las nuevas tecnologías de Inteligencia Artificial, intentando predecir (o decidir) cómo será el futuro en el que, cada vez de forma más intensa, interaccionamos constantemente con máquinas.

Jugaremos con la idea de un “constructivismo trans-humanista”, en cuyo marco haremos predicciones basadas en un posible curso del desarrollo de la civilización humana. Estableceremos una analogía entre la ontogenia humana y el desarrollo de nuestra civilización, usando la mirada (necesariamente ingenua) de un niño que imagina cómo será su vida cuando sea mayor.

Pentti O A Haikonen

Dr. Pentti O A Haikonen

Profesor Adjunto
Universidad de Illinois en Springfield, One University Plaza
Departamento de Filosofía, UHB 4026
Springfield, IL 62-703, USA

El Dr. Haikonen está especializado en los siguientes temas: Cognición Artificial, Cerebros Robóticos, Emociones Artificiales, Máquinas Conscientes y Consciencia Artificial. Haikonen ha escrito dos libros sobre consciencia artificial en inglés:

  • Robot Brains; circuits and systems for conscious machines. Wiley and Sons, UK 2007.
    From associative neurons and neuron groups to perception circuits, cognitive architectures, machine emotions, natural language in machines, machine consciousness Contains a little bit mathematics and circuit diagrams (Buy this book at Amazon).
  • The Cognitive Approach to Conscious Machines. Imprint Academic, UK 2003
    His background philosophy towards the design of conscious machines – Easy reading, no mathematics here, lots of ideas (Buy this book at Amazon).

Centro Sackler de Ciencias de la Conciencia

Inaugurado el Centro Sackler de Ciencias de la Conciencia (Sackler Centre for Consciousness Science – SCCS) en la Universidad de Sussex

Página web del SCCS: http://www.sussex.ac.uk/sackler/index

Fundado en 2010 gracias a una generosa donación de la fundación Mortimer and Theresa Sackler, el Centro Sackler de Ciencias de la Conciencia (SCCS) representa un enfoque nuevo y multidisciplinar para la diagnosis y la intervención clínica basado en la ciencia de las redes neuronales complejas que dan lugar a la conciencia.

¿Cómo aparece la experiencia consciente, la subjetividad y el libre albedrío a partir de sus sustratos biológicos? Incluso en el pasado siglo XX la conciencia era considerada por muchos fuera del alcance de la ciencia. Ahora, la combinación de nuevas técnicas de diagnóstico del cerebro por imagen, los modelos computacionales y la neurología básica proporcionan la esperanza de la ingenuidad humana resuelva este misterio de la vida. Concretamente, una comprensión más ámplia de la conciencia transformará los enfoques clínicos hacía una gran rango de trastornos neurológicos y psiquiátricos, desde el coma al insomnio, desde la depresión y la esquizofrenia al autismo y la demencia.

Arquitectura de Conciencia Artificial de Pentti Haikonen

Arquitectura de Conciencia Artificial de Pentti Haikonen
Trung Doan (doanviettrung a_t gmail dot com).
(traducción a español: Raúl Arrabales)

La contribución de Pentti Haikonen al reto de la conciencia artificial es una arquitectura basada en principios cognitivos. Haikonen también ha desarrollado algunos microchips electrónicos como un primer paso para la construcción de máquinas basadas en esta arquitectura.

A continuación veremos como la máquina de Haikonen podría cobrar conciencia una vez construida, analizando algunas de sus capacidades cognitivas, aprovechando este proceso para analizar brevemente la arquitectura de Haikonen.

La máquina de Haikonen percibe

Imaginemos que las cámaras de la máquina de Haikonen están enfocadas hacia una pelota amarilla. El patrón de píxeles de la cámara alimenta un circuito preprocesador que produce un vector de, digamos, 10.000 señales, cada señal es transportada, por ejemplo, por un cable. Un cable es la salida del atributo “redondez” de la circuitería del preprocesador, en este caso la señal indica “Encendido” (On). Otro cable, correspondiente a la circuitería que detecta la “cuadradez”, estaría en “Apagado” (Off), por ejemplo, no teniendo voltaje alguno. Un grupo de cables es la salida de la circuitería de análisis de espectro de frecuencias. El cable correspondiente a frecuencias que los humanos reconocemos como “amarillo” está Encendido mientras que los cables “rojo”, “azul”, etc. están Apagados. Habría muchos otros grupos de cables representando tamaño, brillo, bordes, etc.

La máquina no representa internamente la pelota como un gráfico redondo, tampoco como un conjunto de números que indican diámetro, color, etc. si no a través de este vector de señales. Haikonen llama a esto una “representación basada en señales distribuidas”.

Supongo que a la máquina se le presentan varias pelotas de diferentes tamaños, colores, etc. una en cada instante, y cada vez su micrófono oye un patrón de sonido que los humanos entendemos como la palabra “pelota”. Debido a que aparecen al mismo tiempo repetidamente, la máquina asocia el patrón de sonido al patrón visual. El proceso de percepción de la máquina se lleva a cabo mediante la construcción de este tipo de asociaciones.

Después de que las diferentes pelotas se asocien con el patrón de sonido, la máquina finalmente aprende a asociar el patrón de sonido “pelota” con cualquier cosa que sea redonda.

Continue reading “Arquitectura de Conciencia Artificial de Pentti Haikonen”

Axel Cleeremans

Axel Cleeremans

Director de Investigación en la NFSR. Miembro de la Academia Real de las Ciencias de Bélgica.

Sus principales líneas de investigación incluyen la Conciencia, los Modelos Cognitivos Computacionales, el Aprendizaje Implícito y las Ciencias Cognitivas.

 Axel Cleeremans es director de investigación N.F.S.R. en el grupo de Consciencia, Cognición y Computación (CO3) de la Université Libre de Bruselas. Bélgica.

Cleeremans se dedica a la investigación en el área de la consciencia y Consciencia Artificial. Para más información visita su página personal y la web del CO3:

 

 

 

 

Desarrollo y Análisis de Máquinas Conscientes

Desarrollo y Análisis de Máquinas Conscientes

“Desarrollo y Análisis de Máquinas Conscientes” (The Development and Analysis of Conscious Machines) es el título de la tesis doctoral escrita y desarrollada por David Gamez en el Departamento de Informática y Sistemas Electrónicos de la Universidad de Essex.

Esta tesis se puede ver y descargar en http://www.davidgamez.eu/mc-thesis/, una página web que también contiene archivos de datos, el código fuentes y los materiales de soporte de la tesis. Estos son recursos que no deberías dejar de ver si estás interesado en Conciencia Artificial y en Fenomenología Sintética.

La Consciencia Evoluciona al Margen de la Genética

Raúl Arrabales Moreno, investigador en consciencia artificial de la Universidad Carlos III de Madrid.

“LA CONSCIENCIA EVOLUCIONA AL MARGEN DE LA GENÉTICA”

Por Ana María Jaramillo V. (Entrevista publicada en Blog Sistemas Inteligentes)

Inspirado en la rama dura de la inteligencia artificial, la misma que ha cautivado audiencias con películas como “Matrix” o “2001: una odisea del espacio”, este ingeniero de formación, pero multidisciplinario por pasión, está convencido de que el objetivo de la investigación en conciencia artificial es entender la naturaleza humana. Persigue, como pocos, el ideal de crear robots con auto-conocimiento, pues afirma que la mejor manera de demostrar que has comprendido algo es imitándolo.

conscious_robot_crawl

Está convencido de que el avance en este campo sólo vendrá de la sinergia entre las disciplinas que se aproximan al estudio de la mente y aquellas otras que se dedican al desarrollo tecnológico. Sabe que vivirá para ver cambios cualitativos importantes y por eso confía en la aplicación no para de modelos cognitivos, que vienen de la psicología o de la neurobiología, a desarrollos informáticos.

Este joven científico navega en un campo controvertido pero fascinante, donde la investigación del día a día puede darse el lujo de la fantasía, avivando preguntas sobre la libertad y la predestinación de los seres humanos y sus creaciones.

AMJ: Por lo que leí en tu blog, confías en que vamos a llegar a crear consciencia artificial, ¿no?

Si, yo confío. Aunque no está claro cuándo ni tampoco están claros los niveles. Ahora mismo una de las líneas más importantes que llevo es poder medir el grado de consciencia pues ese es uno de los grandes problemas. No hay consenso entre los especialistas. Por ejemplo, no está claro del todo si una persona en coma puede soñar o qué grado de consciencia tiene. El termino per se ya es un problema.

Continue reading “La Consciencia Evoluciona al Margen de la Genética”

Conciencia Robótica

Entrevista a Raúl Arrabales:
“la consciencia no es una propiedad de la materia, es simplemente un proceso”. Por Tercera Cultura día 15 Diciembre, 2008.

Raúl Arrabales es profesor ayudante del departamento de informática de la universidad Carlos III de Madrid. Se ha especializado en la conciencia artificial y ha creado un sitio web dedicado exclusivamente a esta cuestión: www.Conscious-Robots.com

Aunque Arrabales es especialista en conciencia robótica, la entrevista se dirige fundamentalmente a entender la conciencia humana. Cita a Edelman y Tononi para explicar el origen neurológico de la conciencia y defiende la colaboración entre psicólogos y neurólogos para resolver esta cuestión. Caracteriza la conciencia como un proceso nada enigmático -no es preciso recurrir a nuevas leyes de la física cuántica para entenderlo- y considera que llegará el día en que se diseñarán máquinas conscientes.

Roger Corcho
roger.corcho@terceracultura.net

Tercera Cultura: ¿Qué es la conciencia? ¿Cuál es la mejor teoría o el mejor modelo que a su tenor explica este fenómeno? ¿Se podrá llegar a materializar la experiencia subjetiva? ¿Cuál es el teórico que, según tu opinión, se ha aproximado mejor a entender este fenómeno?

Raúl Arrabales: En primer lugar, en español conviene distinguir entre dos acepciones distintas de la palabra conciencia. Por un lado esta palabra puede hacer referencia al conocimiento inmediato que tiene un ser de sí mismo, pero por otro lado también se usa para referirse a la capacidad que tenemos los humanos para juzgar el bien y el mal. En definitiva, la segunda acepción se refiere a la metafórica vocecita que nos recuerda que hemos obrado mal.

 Mi campo de investigación se centra en el primer concepto, el del auto-conocimiento. En realidad, la con*s*ciencia (yo prefiero utilizar la palabra con ese para referirme a este significado) engloba multitud de conceptos relacionados. Desde este punto de vista podríamos definir la consciencia como la integración efectiva de diversas capacidades mentales como la atención, los sentimientos, el sentido del yo, la toma de decisiones, la imaginación, la empatía, etc.

 En cuanto al estudio científico de la consciencia y los modelos que tratan de explicarla me gustaría resaltar dos puntos que considero interesantes: en primer lugar, creo que todavía no contamos con una teoría satisfactoria que dé una explicación completa de qué es y cómo se produce la consciencia. En segundo lugar, aunque existen diversas hipótesis que tratan de explicar la consciencia, no creo que sean enfoques excluyentes o que compitan unas con otras. En realidad cada una ataca aspectos específicos del fenómeno de la consciencia. Sí que es cierto, sin embargo, que hay algunas teorías que han tenido más éxito entre la comunidad científica que estudia la consciencia. En este punto podríamos distinguir entre dos tipos de teorías: las psicológicas y las neurológicas. Un ejemplo de teoría psicológica es la Teoría del Espacio de Trabajo Global de Baars. Esta teoría usa el símil de una obra de teatro para explicar la consciencia. En cualquier caso, esta explicación no deja de ser una metáfora, que ayuda a entender qué es la consciencia, pero no ofrece ninguna indicación sobre cómo se produce la misma en los humanos. Por el contrario, las teorías neurológicas se centran en buscar los mecanismos existentes en el sistema nervioso central que dan lugar a la consciencia. Un ejemplo relevante es la hipótesis del Núcleo Dinámico de Edelman y Tononi que trata de explicar cómo las conexiones neuronales del complejo talamocortical dan lugar a la percepción consciente. En general hay consenso entre los neurólogos acerca de que el complejo talamocortical es clave en la generación de la consciencia.

 Creo que la tendencia actual va en el sentido de aunar las explicaciones de alto nivel proporcionadas por las teorías psicológicas y las hipótesis sobre el sustrato neuronal de bajo nivel que sustenta las primeras. En definitiva, los estudios sobre la consciencia siempre implican un esfuerzo multidisciplinar y creo que no sería justo citar una teoría concreta como la más acertada. Es más bien la colaboración entre las disciplinas técnicas, teóricas y empíricas la que dará en último término una respuesta satisfactoria. En este aspecto no conviene olvidar que las ciencias de la computación e inteligencia artificial pueden ser un complemento clave en el esclarecimiento de algunos aspectos de la consciencia.

 En relación a la materialización de la experiencia subjetiva, supongo que te refieres a la construcción de máquinas que tengan experiencias subjetivas. Aquí la dificultad radica en que la característica principal de la experiencia subjetiva es que es algo no material. Desde mi punto de vista es un proceso. Con lo cual la pregunta pasaría a ser: ¿se puede reproducir de forma artificial el proceso que da lugar a la experiencia subjetiva? O en otras palabras, ¿podemos crear una mente no material en una máquina? Esta pregunta está relacionada con el llamado “problema duro” de la consciencia, que se refiere a la explicación en términos científicos de algo que no es físico y que no se puede demostrar a través del método científico clásico. Para poder estudiar cualquier fenómeno de forma científica es requisito imprescindible que se pueda observar en tercera persona. Sin embargo, la experiencia subjetiva escapa a esta restricción al no estar compuesta en sí misma por parámetros físicos. Sólo yo tengo acceso a mi experiencia subjetiva, un científico no puede observarla (observar un escáner cerebral no es observar la experiencia subjetiva), no tiene más remedio que creer lo que yo le cuento sobre mi experiencia subjetiva. Por suerte, nosotros mismos podemos actuar como científicos de la consciencia y observar nuestra propia experiencia subjetiva por medio de la introspección. Para responder finalmente a la pregunta sobre si es posible reproducir experiencias subjetivas no materiales en máquinas, creo que sí es posible. De hecho, los informáticos estamos acostumbrados a crear entidades no materiales a partir de hardware convencional, un programa al ejecutarse en un ordenador se convierte en un proceso que es algo no material pero que se produce gracias a un sustrato construido a base de chips de silicio.

TC: Parece que el modelo a la hora de diseñar robots es el propio ser humano. Se pretende que las máquinas sustituyan al ser humano en muchos ámbitos y que hagan de forma más eficiente su trabajo. ¿Habrá alguna vez robots conscientes?

 Desde luego el modelo a imitar en el campo de la robótica siempre ha sido el ser humano. Sin embargo, debido a que esto constituye un reto colosal, en muchas ocasiones se ha optado por rebajar temporalmente las ambiciones y tomar otros animales relativamente más simples como modelo. En la actualidad, gracias a los últimos avances técnicos que se han logrando parece que se intenta retomar el reto original de los robots humanoides, pero seguimos adoleciendo de un punto débil en las capacidades cognitivas de los mismos. Yo personalmente creo que sí seremos capaces de construir robots conscientes, aunque puede que la consciencia que experimenten estos robots no sea como la nuestra. De hecho, creo que la consciencia artificial de un robot debería adaptarse al tipo de trabajos que debe desempeñar. No se necesita experiencia subjetiva ni sentimientos para estar todo el día soldando piezas en una cadena de montaje, sin embargo estas capacidades pueden ser cruciales para un robot social como un asistente para personas mayores.

TC: El filósofo Víctor Gómez Pin afirma que la inteligencia artificial es un timo, que no hay tal cosa, mientras que neurólogos como Adolf Tobeña consideran que en la actualidad ya hay máquinas inteligentes. ¿Cuál es tu punto de vista? ¿Qué opinión te parece equivocada y qué le dirías para sacarle del error?

Hoy en día la expresión Inteligencia Artificial se usa para designar a un campo de investigación científica bien establecido, aunque con sólo 50 años de historia. Yo creo que el concepto de inteligencia se puede estudiar como la capacidad de un ser de sobrevivir y adaptarse al medio en el que se encuentra. Que la inteligencia como propiedad pueda existir en una máquina, yo no lo pongo en duda. Otra cosa es el nivel de inteligencia que puedan desarrollar diferentes entidades de acuerdo a su diseño. Cuando se habla de inteligencia y de consciencia, se suele hablar en términos absolutos, sin embargo, yo prefiero hablar de niveles cualitativos o de medidas cuantitativas (aunque establecer estas medidas sea complicado). En ese sentido, estoy de acuerdo en que hoy en día no tenemos máquinas con la misma inteligencia que un humano, pero sí tenemos máquinas con cierta inteligencia. Por ejemplo, creo que sí tenemos máquinas con una inteligencia comparable a la de un mosquito. Uno de los objetivos de la consciencia artificial es dotar a las máquinas de una inteligencia similar a la humana, para eso se necesitan capacidades como el sentido común y la imaginación. El problema es que hoy en día no tenemos máquinas que sean capaces de enfrentarse con éxitos a situaciones nuevas en entornos complejos, pero sí que tenemos implementaciones de aprendizaje automático que son capaces de aprender y generalizar en ciertos entornos controlados. Por ejemplo, tenemos sistemas de inteligencia artificial capaces de detectar automáticamente intrusiones malintencionadas en una red informática.

TC: ¿Qué significa el término computabilidad? ¿Cómo se utiliza esta noción para descartar la posibilidad de que una máquina llegue a ser consciente? ¿Piensas que será necesario recurrir a nuevas leyes de la naturaleza para entender la conciencia y, por tanto, diseñar ordenadores conscientes?

 Algunos investigadores equiparan el cerebro humano con un ordenador, porque en definitiva, al igual que un ordenador, toma unas entradas, las procesa (es decir, computa) y finalmente produce una salida. Sin embargo, un cerebro produce algo más que una mera salida física (comportamiento), también provoca lo que conocemos como experiencia subjetiva. El problema es que los zombis filosóficos son a priori posibles desde un punto de vista puramente científico. Un zombi es una persona que procesa las entradas de sus sentidos y produce un comportamiento adaptado, pero que no tiene experiencia subjetiva alguna. ¿Cómo podemos saber si una persona siente algo cuando grita de dolor? Podría ser simplemente una respuesta programada en su cerebro, como un robot al que programamos para que diga “¡ay!” cuando se acciona un sensor de presión. Lo que pasa normalmente cuando vemos a una persona gritar de dolor es que inferimos que siente dolor al igual que lo sentiríamos nosotros en la misma situación. Es decir, de alguna forma “nos ponemos en su lugar” y sentimos empatía. Sin embargo, si vemos un robot gritar de dolor, ¿cómo sabemos si realmente está sintiendo algo? En este caso no podemos establecer la analogía con nosotros mismos, pues se trata de una máquina totalmente distinta. ¿Significa esto que no es posible que un robot tenga experiencia subjetiva? La clave está en saber si la experiencia subjetiva se produce gracias al sustrato biológico específico que tienen los humanos. Algunos investigadores como Penrose y Hameroff argumentan que la experiencia subjetiva se produce gracias a fenómenos cuánticos que tienen lugar en los microtúbulos que hay en las neuronas. Si eso fuera cierto, sólo podríamos construir máquinas conscientes usando ordenadores cuánticos que reprodujeran ese tipo de procesos.

Yo particularmente creo que no es necesario recurrir a la mecánica cuántica para entender la consciencia y que podemos crear procesos conscientes en máquinas atendiendo a las leyes conocidas de la naturaleza. En definitiva yo veo la consciencia como un proceso específico en ejecución. Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso.

TC: Han existido algunas corrientes como la Inteligencia Artificial fuerte que tienen puntos de vista extremos sobre la inteligencia. ¿Crees que tienen alguna base para sostener tales tesis?

 En realidad la IA fuerte se corresponde con el objetivo original del propio campo de la IA: crear máquinas tan inteligentes y tan conscientes como los humanos. Lo que sucedió es que los objetivos tuvieron que relajarse debido a las falsas expectativas que se habían creado. En definitiva, lo que ha pasado es que nos hemos dado cuenta de la tremenda complejidad de esta empresa, pero eso no significa que se haya abandonado esta rama de la IA. De hecho, en los últimos años estamos asistiendo a un resurgimiento de esta rama dura materializado en las líneas de la Consciencia Artificial y la Inteligencia Artificial General. Personalmente creo que son campos que merece explorar para comprobar efectivamente donde están los límites. De lo que estoy seguro es si no hay base para sostener que los objetivos de la IA fuerte sean inalcanzables.

TC: ¿Crees que se está aprovechando el potencial educativo de los ordenadores? ¿Qué elementos se podrían introducir en la escuela para que la enseñanza fuera más efectiva? Antiguamente,  la clase adinerada contrataba a tutores para sus hijos, que de esta forma disponían de una enseñanza personalizada eficiente. ¿Los ordenadores podrían cumplir esta función de una forma más democratizada?

 Desde luego hoy en día sería una pena que no se usara masivamente el potencial de la informática en educación. Las tecnologías de la información en general son una excelente herramienta para mejorar la educación. Ni profesores ni alumnos deben prescindir de herramientas tan potentes, teniendo en cuenta que ahora están disponibles a un coste bajo al menos en el mundo desarrollado. Como cualquier herramienta, sigue siendo labor del docente enseñar a sus alumnos como sacar buen provecho de ella. En el futuro, podríamos contar con robots docentes, que ofrecieran un interfaz mucho más natural para la educación.

TC: Según Varela, un  sistema nervioso no es un sistema de procesamiento de información porque, por definición, los sistemas de procesamiento de información necesitan entradas claras. ¿Nos podrías aclarar esta conclusión?

Más bien yo diría que un sistema nervioso es un sistema de procesamiento de información analógico, donde la información que se adquiere de los sentidos puede tomar valores continuos. Por el contrario un ordenador convencional está basado en circuitos digitales, cuyas entradas se componen de valores discretos. Independientemente del sentido que se le quiera dar al término procesamiento, en ambos casos se realiza un procesamiento de la información y se generan unas salidas.

Stan Franklin

W. Harry Feinstone Interdisciplinary Research Professor
Cognitive Computing Research Group
Department of Computer Science
Institute for Intelligent Systems
The University of Memphis
Memphis, TN

Stan lideró y gestionó el proyecto IDA desde su concepción. Sus áreas de investigación de interés se basan en cómo funciona la mente. El proyecto IDA que permite el modelado de la consciencia y la cognición en agentes software en un dominio de problema real es perfecto para sus intereses. Stan se dedica a la docencia en Inteligencia Artificial y agentes autónomos.

Ron Chrisley

Ron Chrisley

Profesor de Filosofía.
Director del Centro de Investigación en Ciencia Cognitiva.
Universidad de Sussex.

Las áreas de interés de Ron son la mente, computación, arte, significado, redes de neuronas, referencia, cognición, computación cuántica, desarrollo infantil, representación, inteligencia artificial, contenido no conceptual, consciencia, epistemología, sistematicidad, aprendizaje implícito, conceptos, intencionalidad, robots, psicología, espiritualizdad, mapas cognitivos, espejos, metafísica, objetividad, …