La Computación Cognitiva como Fuente de Datos de Gran Valor

Los nuevos Servicios Cognitivos nos permiten automatizar el acceso a innumerables fuentes de datos que hasta ahora considerábamos ocultas, permitiendo el desarrollo de nuevos servicios y una mejora sustancial de la experiencia de cliente.

En los últimos años se ha popularizado el uso de las llamadas “tecnologías cognitivas” en el ámbito empresarial. Podríamos situar un hito histórico en 2011, con el triunfo del ordenador IBM Watson en el programa televisivo Jeopardy!, un concurso de preguntas y respuestas al que hasta ese momento sólo podían acceder humanos.

Watson Jeopardy

Desde el punto de vista de negocio, la contribución más importante de este logro fue comprobar que contábamos con una tecnología lo suficientemente avanzada como para que las máquinas puedan interactuar con el mundo de una forma más natural, en este caso usando el lenguaje. Aunque las tecnologías de Procesamiento del Lenguaje Natural existían desde mucho antes, es a partir de esta demostración cuando muchas compañías se plantean seriamente la implantación de nuevos modelos de negocio basados en “bots”, “chat bots”, asistentes virtuales, etc. Gracias a estos avances hoy en día tenemos en nuestros dispositivos móviles y otros entornos a asistentes como Siri (Apple), Cortana (Microsoft), Alexa (Amazon), Aura (Telefónica), etc.

Sin embargo, hablar de servicios cognitivos NO es sinónimo de procesamiento del lenguaje natural, sino que abarca mucho más. En este artículo de Digital Knowledge de ICEMD explico en más detalle el alcance de los servicios cognitivos.

Foro del Futuro Próximo (FFP 2016)

Foro Futuro PróximoEl Foro del Futuro Próximo 2016 se celebra el 30 de Sept. y 1 de Oct. en la Escuela de Ingenieros Industriales de la Universidad Politécnica de Madrid. Este año analizamos el impacto de las tecnologías de lo mental como son la cognición, la inteligencia artificial o la neurociencia. Entre los temas que se tratarán se incluyen: big data, realidad virtual, robótica social, la singularidad, prospectiva y tecnooptimismo, neurociencia cognitiva, la nueva humanidad o las máquinas autónomas.

Inscríbete gratis y descubre el programa de conferencias en futuroproximo.org.

En mi ponencia exploraremos el impacto en la sociedad de las nuevas tecnologías de Inteligencia Artificial, intentando predecir (o decidir) cómo será el futuro en el que, cada vez de forma más intensa, interaccionamos constantemente con máquinas.

Jugaremos con la idea de un “constructivismo trans-humanista”, en cuyo marco haremos predicciones basadas en un posible curso del desarrollo de la civilización humana. Estableceremos una analogía entre la ontogenia humana y el desarrollo de nuestra civilización, usando la mirada (necesariamente ingenua) de un niño que imagina cómo será su vida cuando sea mayor.

Computación cognitiva. La nueva revolución del Big Data

computacion-cognitiva-la-nueva-revolucion-del-big-data

Que no cunda el pánico, pero ya es tarde, las máquinas han tomado el control. La realidad es que, cada vez más, buena parte de la culpa de lo que ocurre en una empresa suele ser de una de ellas…

En este artículo para El Confidencial explico como los nuevos canales digitales imponen a muchas organizaciones la necesidad acuciante de recurrir a máquinas inteligentes que sean capaces de tomar decisiones en tiempo real.

Retecog 2011 – Arquitecturas de la Mente

ReteCog.Net 2011 Workshop. Arquitecturas de la Mente

Workshop ReteCog.Net 2011: The architectures of Mind
Fecha: 4-6 Julio
Lugar: ASLab, Madrid

ReteCog 2011 se centra en el tema ARQUITECTURA COGNITIVA. Desvelar la arquitectura de la mente es la piedra angular de nuestros programas de investigación. El workshop pretende reunir a destacados académicos, científicos e ingenieros que utilizan métodos analíticos y sintéticos tanto para comprender las propiedades sorprendentes de procesamiento de los sistemas biológicos, específicamente las del cerebro, y aprovechar ese conocimiento para avanzar en métodos de ingeniería para la construcción de sistemas artificiales con mayores niveles de competencia cognitiva.

ReteCog 2011 es un punto de encuentro de los teóricos de la mente, los ingenieros de sistemas cognitivos y neurocientíficos donde las ideas de varios dominios se integran con la esperanza de obtener nuevos conocimientos emergentes de la naturaleza, el funcionamiento y las capacidades del cerebro y la mente. Este enfoque multidisciplinar es necesario ya que los datos cada vez más precisos que se obtienen sobre el cerebro están produciendo una creciente necesidad tanto de una comprensión teórica y cuantitativa de profundidad y una capacidad equivalente para manipular esos datos y traducirla en aplicaciones de ingeniería basadas en teorías consistentes. ReteCog 2011 está orientada a i) Los científicos que utilizan y desarrollan métodos matemáticos y de ingeniería para un mejor entendimiento a nivel de sistemas de la conducta cognitiva de los sistemas biológicos complejos y ii) los investigadores tecnologos cuyo objetivo es entender y construir sistemas con mayores competencias cognitivas. ReteCog 2011 se ha concebido para promover patrones de colaboración que fomenten el enriquecimiento mutuo a través de los dominios de los temas del workshop. Esto pone de manifiesto el papel de ReteCog.net como punto de encuentro importante para los investigadores y profesionales en las áreas de sistemas cognitivos naturales y artificiales.

Los debates sobre estas disciplinas enriquecen a los investigadores con perspectivas de diversos campos científicos. Para ayudar en esta dirección de la estrecha interacción, el workshop se aceptará un máximo de 50 comunicaciones.

Machine Consciousness 2011: Self, Integración y Explicación

MC2011

Machine Consciousness 2011 (Conciencia Artificial 2011)
Self, Integración and Explicación
Llamada a la Participación

Límite para el envío de resúmenes: 31 de Diciembre de 2010.

Extensión de la fecha límite para el envío de resúmenes: 9 de Enero de 2011.

Invitación para el envío de trabajos al MC2011, un simposio de 2 días que se celebrará conjuntamente con el AISB 2011 (Artificial Intelligence and the Simulation of Behaviour 2011), del 4 al 7 de April de 2011, Universidad de York, Reino Unido.

La Conciencia Artificial (CA) trata con la creación de artefactos que tienen, o modelan, características mentales típicamente asociadas con la conciencia como la (auto-)conciencia, las emociones, el afecto, los estados fenomenológicos, la imaginación, etc.

Temas específicos:
Se buscan trabajos que encajen con las siguientes áreas:
• CA y auto-modelado
• CA e integración de la información
• El poder explicativo de los modelos de CA
• CA y neurociencia
• CA y conciencia funcional versus conciencia fenomenológica
• Ética y CA

Continue reading “Machine Consciousness 2011: Self, Integración y Explicación”

Los bots conscientes ya están aquí

Los bots conscientes ya están aquí

Analizamos la mente del bot ganador del 2K BotPrize 2010

El equipo “Conscious-Robots”, vencedor de la edición 2010 del 2K BotPrize, explica la arquitectura “consciente” de su bot.


  La mayor parte de los esfuerzos en desarrollar bots más realistas – bots que muestra un comportamiento similar al que tendría un humano – están basados en las técnicas clásicas de Inteligencia Artificial. Dichas técnicas tienen su base en ideas relativamente antiguas, las cuales sin embargo han ido mejorando progresivamente o incrementando su rendimiento para satisfacer los requisitos de los nuevos videojuegos. Para el desarrollo de CC-Bot2, nuestro bot en la competición, nos hemos centrado en un nuevo enfoque, tomando como inspiración algunas de las teorías cognitivas propuestas para modelar la conciencia humana.

  En este artículo describimos brevemente el diseño de CC-Bot2 para la competición 2K BotPrize 2010, que tuvo lugar el pasado mes de Agosto en Copenhague. La competición BotPrize nace como una adaptación del test de Turing para videojuegos, en la que se ha seleccionado un juego de disparos en primera persona (FPS): el “Unreal Tournament 2004”. Esta competición internacional, en la que participan investigadores de todo el mundo, es un referente para conocer el avance de las técnicas de Inteligencia Artificial para pasar el test de Turing, es decir, crear programas de ordenador que sean indistinguibles de un ser humano. Aun siendo vencedor de la competición, CC-Bot2 no pudo superar el test de Turing en esta edición, consiguiendo un ratio de humanidad del 31.8%, aún algo distante del 50% que se considera necesario para superar dicho test. Hoy en día no existe programa alguno que haya conseguido superar el test de Turing, y aún existe un largo camino para conseguirlo. Sin embargo, la nueva propuesta que presentamos aquí es una línea de investigación muy prometedora para poder alcanzar dicho objetivo, y no solo en el dominio de los videojuegos.

Continue reading “Los bots conscientes ya están aquí”

CRUBOTS

Utilidades de Conscious-Robots.com para Simulación de Robots

CRUBOTS es un conjunto de servicios de Robotics Develops Studio (MRDS) desarrollados como parte de una linea de investigación en Conciencia Artificial. Aunque estos servicios se desarrollaron originalmente para funcionar conjuntamente con la arquitectura cognitiva CERA-CRANIUM, se pueden reutilizar para cualquier proyecto de robótica.

explorersimsonar_3

Como trabajamos principalmente con el robot Pioneer 3DX, la mayoría de los servicios de simulación se han diseñado para que reproduzcan con la mayor fidelidad el robot móvil real.

CRUBOTS se distribuye como un archivo ZIP (https://github.com/raul-arrabales/crubots) que contiene el código fuente de todos los servicios MRDS. Cada servicio se encuentra en su propia carpeta bajo el directorio packages/crubots en el directorio raíz de MRDS.

Mira más abajo para ver las instrucciones específicas y una descripción de los servicios que se incluyen en CRUBOTS.

Continue reading “CRUBOTS”

La Singularidad. ¿Podrían los robots conquistar el mundo?

La Singularidad. ¿Podrían los robots conquistar el mundo en un futuro próximo?

Semana de la Ciencia. Ponencia por Raul Arrabales. FNAC Parquesur. 12 de Noviembre 2009. 19:00.

El desarrollo actual de la Inteligencia Artificial y los Sistemas Cognitivos Artificiales, en especial los basados en Conciencia Artificial, hace que nos preguntemos hasta dónde deberíamos llegar en su diseño. ¿No es peligroso construir máquinas conscientes? ¿Cómo podrían afectar a la sociedad? En esta charla se tratarán estos temas introduciendo conceptos de actualidad como el fenómeno conocido como la Singularidad. Se presentarán argumentos a favor y en contra del pronóstico de un cambio social sin precedentes causado por los avances científicos y tecnológicos.

Lugar. FNAC Parquesur. Jueves 12 de noviembre a las 19:00. Entrada libre.

 

Segundo Seminario Internacional sobre Nuevos Temas de la IA

Segundo Seminario Internacional sobre Nuevos Temas de la Inteligencia Artificial

Del 2 al 6 de Febrero de 2009
Universidad Carlos III de Madrid
Campus de Colmenarejo
Avda. Universidad Carlos III, 22
28270 Colmenarejo (Madrid) España.

Organizado por ScALAB (CAOS, EVANNAI, GIAA, PLG) Laboratorio de Inteligencia Artificial de la UC3M.

Ponentes Invitados

Dr. Xin Yao. University of Birmingham.
Evolving Ensemble of Artificial Neural Networks. Co-Evolution, Games and Social Behaviors. Evolutionary Global Optimisation and Constraint Handling.

Dr. Carlos Coello. CINVESTAV-IPN in Mexico.
Recent Results and Open Problems in Evolutionary Multiobjective Optimization.

Dr. Tarunraj Singh. University at Buffalo, The State University of New York.
An overview of advanced estimation algorithms

Dr. Subrata Das. Xerox European Research Centre.
High-Level Information Fusion.

Dr. Michael Buro. University of Alberta, Edmonton, Canada.
Constructing High-Performance AI Systems for Games.

Dr. Malte Helmert. University of Freiburg.
Planning as heuristic search.

Dr. Silvano Cincotti. University of Genoa.
Agent-based Computational Economics.

Dr. Marco DorigoUniversité Libre de Bruxelles.
Bio-inspired Computing: Swarm Intelligence, Ant Colony Optimization and Swarm Robotics.

Conciencia Robótica

Entrevista a Raúl Arrabales:
“la consciencia no es una propiedad de la materia, es simplemente un proceso”. Por Tercera Cultura día 15 Diciembre, 2008.

Raúl Arrabales es profesor ayudante del departamento de informática de la universidad Carlos III de Madrid. Se ha especializado en la conciencia artificial y ha creado un sitio web dedicado exclusivamente a esta cuestión: www.Conscious-Robots.com

Aunque Arrabales es especialista en conciencia robótica, la entrevista se dirige fundamentalmente a entender la conciencia humana. Cita a Edelman y Tononi para explicar el origen neurológico de la conciencia y defiende la colaboración entre psicólogos y neurólogos para resolver esta cuestión. Caracteriza la conciencia como un proceso nada enigmático -no es preciso recurrir a nuevas leyes de la física cuántica para entenderlo- y considera que llegará el día en que se diseñarán máquinas conscientes.

Roger Corcho
roger.corcho@terceracultura.net

Tercera Cultura: ¿Qué es la conciencia? ¿Cuál es la mejor teoría o el mejor modelo que a su tenor explica este fenómeno? ¿Se podrá llegar a materializar la experiencia subjetiva? ¿Cuál es el teórico que, según tu opinión, se ha aproximado mejor a entender este fenómeno?

Raúl Arrabales: En primer lugar, en español conviene distinguir entre dos acepciones distintas de la palabra conciencia. Por un lado esta palabra puede hacer referencia al conocimiento inmediato que tiene un ser de sí mismo, pero por otro lado también se usa para referirse a la capacidad que tenemos los humanos para juzgar el bien y el mal. En definitiva, la segunda acepción se refiere a la metafórica vocecita que nos recuerda que hemos obrado mal.

 Mi campo de investigación se centra en el primer concepto, el del auto-conocimiento. En realidad, la con*s*ciencia (yo prefiero utilizar la palabra con ese para referirme a este significado) engloba multitud de conceptos relacionados. Desde este punto de vista podríamos definir la consciencia como la integración efectiva de diversas capacidades mentales como la atención, los sentimientos, el sentido del yo, la toma de decisiones, la imaginación, la empatía, etc.

 En cuanto al estudio científico de la consciencia y los modelos que tratan de explicarla me gustaría resaltar dos puntos que considero interesantes: en primer lugar, creo que todavía no contamos con una teoría satisfactoria que dé una explicación completa de qué es y cómo se produce la consciencia. En segundo lugar, aunque existen diversas hipótesis que tratan de explicar la consciencia, no creo que sean enfoques excluyentes o que compitan unas con otras. En realidad cada una ataca aspectos específicos del fenómeno de la consciencia. Sí que es cierto, sin embargo, que hay algunas teorías que han tenido más éxito entre la comunidad científica que estudia la consciencia. En este punto podríamos distinguir entre dos tipos de teorías: las psicológicas y las neurológicas. Un ejemplo de teoría psicológica es la Teoría del Espacio de Trabajo Global de Baars. Esta teoría usa el símil de una obra de teatro para explicar la consciencia. En cualquier caso, esta explicación no deja de ser una metáfora, que ayuda a entender qué es la consciencia, pero no ofrece ninguna indicación sobre cómo se produce la misma en los humanos. Por el contrario, las teorías neurológicas se centran en buscar los mecanismos existentes en el sistema nervioso central que dan lugar a la consciencia. Un ejemplo relevante es la hipótesis del Núcleo Dinámico de Edelman y Tononi que trata de explicar cómo las conexiones neuronales del complejo talamocortical dan lugar a la percepción consciente. En general hay consenso entre los neurólogos acerca de que el complejo talamocortical es clave en la generación de la consciencia.

 Creo que la tendencia actual va en el sentido de aunar las explicaciones de alto nivel proporcionadas por las teorías psicológicas y las hipótesis sobre el sustrato neuronal de bajo nivel que sustenta las primeras. En definitiva, los estudios sobre la consciencia siempre implican un esfuerzo multidisciplinar y creo que no sería justo citar una teoría concreta como la más acertada. Es más bien la colaboración entre las disciplinas técnicas, teóricas y empíricas la que dará en último término una respuesta satisfactoria. En este aspecto no conviene olvidar que las ciencias de la computación e inteligencia artificial pueden ser un complemento clave en el esclarecimiento de algunos aspectos de la consciencia.

 En relación a la materialización de la experiencia subjetiva, supongo que te refieres a la construcción de máquinas que tengan experiencias subjetivas. Aquí la dificultad radica en que la característica principal de la experiencia subjetiva es que es algo no material. Desde mi punto de vista es un proceso. Con lo cual la pregunta pasaría a ser: ¿se puede reproducir de forma artificial el proceso que da lugar a la experiencia subjetiva? O en otras palabras, ¿podemos crear una mente no material en una máquina? Esta pregunta está relacionada con el llamado “problema duro” de la consciencia, que se refiere a la explicación en términos científicos de algo que no es físico y que no se puede demostrar a través del método científico clásico. Para poder estudiar cualquier fenómeno de forma científica es requisito imprescindible que se pueda observar en tercera persona. Sin embargo, la experiencia subjetiva escapa a esta restricción al no estar compuesta en sí misma por parámetros físicos. Sólo yo tengo acceso a mi experiencia subjetiva, un científico no puede observarla (observar un escáner cerebral no es observar la experiencia subjetiva), no tiene más remedio que creer lo que yo le cuento sobre mi experiencia subjetiva. Por suerte, nosotros mismos podemos actuar como científicos de la consciencia y observar nuestra propia experiencia subjetiva por medio de la introspección. Para responder finalmente a la pregunta sobre si es posible reproducir experiencias subjetivas no materiales en máquinas, creo que sí es posible. De hecho, los informáticos estamos acostumbrados a crear entidades no materiales a partir de hardware convencional, un programa al ejecutarse en un ordenador se convierte en un proceso que es algo no material pero que se produce gracias a un sustrato construido a base de chips de silicio.

TC: Parece que el modelo a la hora de diseñar robots es el propio ser humano. Se pretende que las máquinas sustituyan al ser humano en muchos ámbitos y que hagan de forma más eficiente su trabajo. ¿Habrá alguna vez robots conscientes?

 Desde luego el modelo a imitar en el campo de la robótica siempre ha sido el ser humano. Sin embargo, debido a que esto constituye un reto colosal, en muchas ocasiones se ha optado por rebajar temporalmente las ambiciones y tomar otros animales relativamente más simples como modelo. En la actualidad, gracias a los últimos avances técnicos que se han logrando parece que se intenta retomar el reto original de los robots humanoides, pero seguimos adoleciendo de un punto débil en las capacidades cognitivas de los mismos. Yo personalmente creo que sí seremos capaces de construir robots conscientes, aunque puede que la consciencia que experimenten estos robots no sea como la nuestra. De hecho, creo que la consciencia artificial de un robot debería adaptarse al tipo de trabajos que debe desempeñar. No se necesita experiencia subjetiva ni sentimientos para estar todo el día soldando piezas en una cadena de montaje, sin embargo estas capacidades pueden ser cruciales para un robot social como un asistente para personas mayores.

TC: El filósofo Víctor Gómez Pin afirma que la inteligencia artificial es un timo, que no hay tal cosa, mientras que neurólogos como Adolf Tobeña consideran que en la actualidad ya hay máquinas inteligentes. ¿Cuál es tu punto de vista? ¿Qué opinión te parece equivocada y qué le dirías para sacarle del error?

Hoy en día la expresión Inteligencia Artificial se usa para designar a un campo de investigación científica bien establecido, aunque con sólo 50 años de historia. Yo creo que el concepto de inteligencia se puede estudiar como la capacidad de un ser de sobrevivir y adaptarse al medio en el que se encuentra. Que la inteligencia como propiedad pueda existir en una máquina, yo no lo pongo en duda. Otra cosa es el nivel de inteligencia que puedan desarrollar diferentes entidades de acuerdo a su diseño. Cuando se habla de inteligencia y de consciencia, se suele hablar en términos absolutos, sin embargo, yo prefiero hablar de niveles cualitativos o de medidas cuantitativas (aunque establecer estas medidas sea complicado). En ese sentido, estoy de acuerdo en que hoy en día no tenemos máquinas con la misma inteligencia que un humano, pero sí tenemos máquinas con cierta inteligencia. Por ejemplo, creo que sí tenemos máquinas con una inteligencia comparable a la de un mosquito. Uno de los objetivos de la consciencia artificial es dotar a las máquinas de una inteligencia similar a la humana, para eso se necesitan capacidades como el sentido común y la imaginación. El problema es que hoy en día no tenemos máquinas que sean capaces de enfrentarse con éxitos a situaciones nuevas en entornos complejos, pero sí que tenemos implementaciones de aprendizaje automático que son capaces de aprender y generalizar en ciertos entornos controlados. Por ejemplo, tenemos sistemas de inteligencia artificial capaces de detectar automáticamente intrusiones malintencionadas en una red informática.

TC: ¿Qué significa el término computabilidad? ¿Cómo se utiliza esta noción para descartar la posibilidad de que una máquina llegue a ser consciente? ¿Piensas que será necesario recurrir a nuevas leyes de la naturaleza para entender la conciencia y, por tanto, diseñar ordenadores conscientes?

 Algunos investigadores equiparan el cerebro humano con un ordenador, porque en definitiva, al igual que un ordenador, toma unas entradas, las procesa (es decir, computa) y finalmente produce una salida. Sin embargo, un cerebro produce algo más que una mera salida física (comportamiento), también provoca lo que conocemos como experiencia subjetiva. El problema es que los zombis filosóficos son a priori posibles desde un punto de vista puramente científico. Un zombi es una persona que procesa las entradas de sus sentidos y produce un comportamiento adaptado, pero que no tiene experiencia subjetiva alguna. ¿Cómo podemos saber si una persona siente algo cuando grita de dolor? Podría ser simplemente una respuesta programada en su cerebro, como un robot al que programamos para que diga “¡ay!” cuando se acciona un sensor de presión. Lo que pasa normalmente cuando vemos a una persona gritar de dolor es que inferimos que siente dolor al igual que lo sentiríamos nosotros en la misma situación. Es decir, de alguna forma “nos ponemos en su lugar” y sentimos empatía. Sin embargo, si vemos un robot gritar de dolor, ¿cómo sabemos si realmente está sintiendo algo? En este caso no podemos establecer la analogía con nosotros mismos, pues se trata de una máquina totalmente distinta. ¿Significa esto que no es posible que un robot tenga experiencia subjetiva? La clave está en saber si la experiencia subjetiva se produce gracias al sustrato biológico específico que tienen los humanos. Algunos investigadores como Penrose y Hameroff argumentan que la experiencia subjetiva se produce gracias a fenómenos cuánticos que tienen lugar en los microtúbulos que hay en las neuronas. Si eso fuera cierto, sólo podríamos construir máquinas conscientes usando ordenadores cuánticos que reprodujeran ese tipo de procesos.

Yo particularmente creo que no es necesario recurrir a la mecánica cuántica para entender la consciencia y que podemos crear procesos conscientes en máquinas atendiendo a las leyes conocidas de la naturaleza. En definitiva yo veo la consciencia como un proceso específico en ejecución. Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso.

TC: Han existido algunas corrientes como la Inteligencia Artificial fuerte que tienen puntos de vista extremos sobre la inteligencia. ¿Crees que tienen alguna base para sostener tales tesis?

 En realidad la IA fuerte se corresponde con el objetivo original del propio campo de la IA: crear máquinas tan inteligentes y tan conscientes como los humanos. Lo que sucedió es que los objetivos tuvieron que relajarse debido a las falsas expectativas que se habían creado. En definitiva, lo que ha pasado es que nos hemos dado cuenta de la tremenda complejidad de esta empresa, pero eso no significa que se haya abandonado esta rama de la IA. De hecho, en los últimos años estamos asistiendo a un resurgimiento de esta rama dura materializado en las líneas de la Consciencia Artificial y la Inteligencia Artificial General. Personalmente creo que son campos que merece explorar para comprobar efectivamente donde están los límites. De lo que estoy seguro es si no hay base para sostener que los objetivos de la IA fuerte sean inalcanzables.

TC: ¿Crees que se está aprovechando el potencial educativo de los ordenadores? ¿Qué elementos se podrían introducir en la escuela para que la enseñanza fuera más efectiva? Antiguamente,  la clase adinerada contrataba a tutores para sus hijos, que de esta forma disponían de una enseñanza personalizada eficiente. ¿Los ordenadores podrían cumplir esta función de una forma más democratizada?

 Desde luego hoy en día sería una pena que no se usara masivamente el potencial de la informática en educación. Las tecnologías de la información en general son una excelente herramienta para mejorar la educación. Ni profesores ni alumnos deben prescindir de herramientas tan potentes, teniendo en cuenta que ahora están disponibles a un coste bajo al menos en el mundo desarrollado. Como cualquier herramienta, sigue siendo labor del docente enseñar a sus alumnos como sacar buen provecho de ella. En el futuro, podríamos contar con robots docentes, que ofrecieran un interfaz mucho más natural para la educación.

TC: Según Varela, un  sistema nervioso no es un sistema de procesamiento de información porque, por definición, los sistemas de procesamiento de información necesitan entradas claras. ¿Nos podrías aclarar esta conclusión?

Más bien yo diría que un sistema nervioso es un sistema de procesamiento de información analógico, donde la información que se adquiere de los sentidos puede tomar valores continuos. Por el contrario un ordenador convencional está basado en circuitos digitales, cuyas entradas se componen de valores discretos. Independientemente del sentido que se le quiera dar al término procesamiento, en ambos casos se realiza un procesamiento de la información y se generan unas salidas.