Legislación para los robots del futuro

Parece que algunos gobiernos se están tomando muy en serio la posibilidad del uso común de robots en la sociedad. Japón y Corea del Sur están preocupados por la seguridad de los humanos en un mundo donde muchas tareas críticas son realizadas por máquinas. Estos paises comparten la visión de Isaac Asimov de un mundo futuro donde los humanos conviven con robots. Sin embargo, no se fian de criaturas mecánicas únicamente limitadas por tres simples leyes.

Hace unas semanas el periódico The Times informó sobre un informe de 60 páginas realizado por expertos en robótica japoneses. Éstos afirman que las famosas Tres Leyes no son suficientes para mantenernos sanos y salvos cuando la próxima generación de robots vea la luz. El borrador titulado ‘Guía para asegurar la conducta segura de la próxima generación de robots’ se está debatiendo por el sector empresarial, investigadores y abogados con la intención de elaborar una ley que nos proteja de forma efectiva.

Este borrador propone la creación de una base de datos central donde los incidentes de humanos heridos por robots sean registrados y accesibles por los fabricantes de robots. Por lo tanto, todos los robots deberán ir equipados de los correspondientes mecanismos de registro y comunicación de cualquier daño que puedan causar a las personas durante el desempeño de sus actividades. Japón está divisando un futuro próximo en el que los robots juegan roles clave en la sociedad y han detectado la necesidad de una legislación adecuada al respecto. Se prevee que el mercado de robots domésticos crezca más de 3.3 trillones de yenes en Japón en los próximos 15 años. Los robots asistentes capaces de ayudar y charlar con personas mayores son ya una realidad. Los robots enfermeros, robots patrulla y asistentes personales van a aparecer en los próximos años.

Continue reading “Legislación para los robots del futuro”

La Consciencia Evoluciona al Margen de la Genética

Raúl Arrabales Moreno, investigador en consciencia artificial de la Universidad Carlos III de Madrid.

“LA CONSCIENCIA EVOLUCIONA AL MARGEN DE LA GENÉTICA”

Por Ana María Jaramillo V. (Entrevista publicada en Blog Sistemas Inteligentes)

Inspirado en la rama dura de la inteligencia artificial, la misma que ha cautivado audiencias con películas como “Matrix” o “2001: una odisea del espacio”, este ingeniero de formación, pero multidisciplinario por pasión, está convencido de que el objetivo de la investigación en conciencia artificial es entender la naturaleza humana. Persigue, como pocos, el ideal de crear robots con auto-conocimiento, pues afirma que la mejor manera de demostrar que has comprendido algo es imitándolo.

conscious_robot_crawl

Está convencido de que el avance en este campo sólo vendrá de la sinergia entre las disciplinas que se aproximan al estudio de la mente y aquellas otras que se dedican al desarrollo tecnológico. Sabe que vivirá para ver cambios cualitativos importantes y por eso confía en la aplicación no para de modelos cognitivos, que vienen de la psicología o de la neurobiología, a desarrollos informáticos.

Este joven científico navega en un campo controvertido pero fascinante, donde la investigación del día a día puede darse el lujo de la fantasía, avivando preguntas sobre la libertad y la predestinación de los seres humanos y sus creaciones.

AMJ: Por lo que leí en tu blog, confías en que vamos a llegar a crear consciencia artificial, ¿no?

Si, yo confío. Aunque no está claro cuándo ni tampoco están claros los niveles. Ahora mismo una de las líneas más importantes que llevo es poder medir el grado de consciencia pues ese es uno de los grandes problemas. No hay consenso entre los especialistas. Por ejemplo, no está claro del todo si una persona en coma puede soñar o qué grado de consciencia tiene. El termino per se ya es un problema.

Continue reading “La Consciencia Evoluciona al Margen de la Genética”

Servicio de SONAR Simulado

El servicio de SONAR Simulado proporciona acceso a un anillo sonar simulado. Usa los mecanismos de trazado de rayos del simulador de Robotics Studio para simular los transductores Sonar. Usando este servicio puede probar la detección de objetos y la medición de distancias con un robot simulado en el entorno visual de MSRS.

Introducción:

Los robots basado en ARCOS (como el Pioneer P3-DX) pueden integrar hasta cuatro anillos Sonar, cada uno con ocho transductores. La plataforma Robotics Studio no incluye un servicio de Sonar Simulado que pueda usarse en el entorno visual (como es el caso del LRF). Sin embargo, sí que existe un contrato genérico para un sensor Sonar que quería implementar para el caso específico de un anillo frontal Sonar para el robot simulado Pioneer 3 DX.

NOTA: También hay disponible un servicio de Sonar real para ARCOS (no simulado):
http://www.conscious-robots.com/es/robotics-studio/robotics-studio-services/arcos-sonar-service.html

 Con respecto a la simulación del Sonar esta es la sugerencia por parte de Microsoft:

“puedes hacer un sensor sonar simulado haciendo algo similar al telémetro laser. En vez de lanzar cientos de rayos en un patrón como el del laser, configura un manojo de rayos en un cono que coincida con la apertura del sensor sonar que quieres simular. En tu código, mira los resultados de las distancias devueltas por cada rayo y configura el valor de retorno del sonar como la intersección más cercana.”

He escrito un servicio llamado SimulatedSonar intentando seguir estas instrucciones – El código fuente está disponible en la sección de descargas.

NOTA: La versión actual del Sonar Simulado no genera un cono 3D usando el trazado de rayos. En su lugar se genera una sección en 2D para calcular la intersección más cercana. Por lo tanto, el robot simulado sólo “ve” en un plano 2D (situado a la altura del dispositivo Sonar). Con el objetido de simular con más exactitud el sensor Sonar hay que pasar a una representación 3D. También se debería añadir ruido para modelar mejor un sonar real.

Puedes suscribirte a este servicio SimulatedSonar desde tu aplicación y así obtener facilmente lecturas sonar en tu código MSRS (en principio este código vale para cualquier robot simulado, sólo necesitas añadir la entidad a tu robot y configurar los parámetros y la posición del Sonar).

Descarga del Servicio:

Instrucciones de Instalación (para el archivo zip con el código fuente):

SimulatedSonar es un pequeño servicio DSS (Servicio de Robotics Studio) que te permite acceder a las lecturas de un Sonar Simulado para el robot Pioneer 3 DX. El archivo zip contiene el código fuente y el proyecto de Visual Studio.

Descomprime los contenidos del archivo en el directorio raíz de MSRS. El código fuente se encuentra bajo el directorio Apps\UC3M. Compílalo usando Visual Studio.

Mira el fichero readme.txt incluido en el paquete de distribución para ver instrucción detalladas  y la historia de versiones anteriores. Es importante que instales el servicio en la misma versión de MSRS que se indica en el fichero readme.txt. Siempre intento actualizar todas las distribuciones con la última versión disponible de MSRS, por favor comprueba regularmente las actualizaciones.

Detalles del Servicio:

Identificador de Contrato:
    http://www.conscious-robots.com/2007/07/simulatedsonar.html

Contrato Genérico Implementado:
    Microsoft.Robotics.Services.Sonar

Servicios Asociados:
    Subscription Manager

Permite Suscripciones:
.

Estado del Servicio:
Microsoft.Robotics.Services.Sonar.Proxy.SonarState

Descripción:

El anillo frontal Sonar del Pioneer 3 DX está compuesto de ocho transductores colocados en ángulos de -90, -50, -30, -10, 10, 30, 50 y 90 grados. Su estado se consulta secuencialmente a una cadencia configurable (normalmente 25 Hz – 50 ms. por transductor por anillo).

El servicio SimulatedSonar pretende simular un Sonar real por medio de los mecanismos de trazado de rayos disponibles en el simulador de MSRS. El anillo frontal de Sonar del P3DX abarca 180 grados. Pero los transductores laterales están centrados a 90 grados, por lo que considero una apertura de 196 grados. Considerando una apertura de cono de 16 grados (los trasductores hardware reales del P3DX tienen una apertura de 15 grados):

_state.AngularRange = 196;  // 180 plus two halfs of lateral transducers.

Usando los mecanismos de trazado de rayos genero un rayo por grado formando una proyección en 2D de cada cono. Por ello, sólo considero los rayos que caen dentro de los ángulos cubiertos por cada transductor Sonar (las mediciones obtenidas por el resto de rayos se descartan ya que pertenecen a los ángulos muertos entre los transductores), y para cada transductor cojo la intersección más cercana (la distancia mínima). Ver figura: los rayos azules representan las medidas que se descartan. Los rayos rojos corresponden a las medidas tomadas por cada transductor Sonar. El punto amarillo simula la posición del dispositivo sonar (el origen de todos los rayos).

Cuando las medidas obtenidas de los rayos (que corresponden a las medidas simuladas obtenidas por los transductores sonar) experimentan un cambio sustancial, el servicio SimulatedSonar envía un mensaje Replace a todos sus suscriptores notificando el cambio de estado.

Dentro del objeto SonarState, se crea un vector de ocho posiciones de tipo double. Este vector (array), llamado DistanceMeasurements[] contiene las lecturas de distancias correspondientes a los transductores sonar simulados.

Parachoques Simulado para Pioneer 3DX

Servicio SimulatedPioneerBumper

Microsoft Robotics Studio viene con un modelo simulado del robot Pioneer 3DX que se puede usar en el entorno de simulación visual. Este robot simulado se puede equipar con varios sensores simulados, como el LRF o el bumper simulado. Normalmente, los paragolpes del P3DX se modelan como simplemente un sensor de contacto frontal y otro trasero. Sin embargo, el robot Pioneer real suele venir con dos anillos de paragolpes, cada uno con 5 paneles de contacto:

Introducción

Dada la necesidad de usar un modelo más exacto de los sensores reales, hemos estado trabajando en servicios adicionales de simulación, como el servicio de Sonar Simulado.  En este caso, queríamos simular de forma precisa los anillos de paragolpes frontal y trasero de la base Pioneer Arcos. El servicio Simulated Pioneer Bumper modela los 10 paneles usando 10 cajas tridimensionales situadas aproximadamente a la misma posición que corresponde a los paragolpes del robot real. Vea las cajas que respresentan los sensores de contacto en las siguientes figuras:

NOTA:  los “boxshapes” distribuidos alrededor del robot se usan para calcular las colisiones físicas con otros elementos del mundo virtual. Por lo tanto, la modificación de sus posiciones afectaría al comportamiento físico del robot.

Descarga del Servicio (Código fuente)

Instrucciones de Instalación

Descarga el archivo ZIP y descomprímelo en el directorio raíz de MSRS. Se supone que el directorio raíz es:

C:\Microsoft Robotics Studio (1.5)

Cuando se descomprime el archivo, se crea un proyecto en el directorio Apps\UC3M bajo la instalación de MSRS:

Apps\UC3M\SimulatedPioneerBumper

Si quieres recompilar el proyecto, abrelo y usa la función rebuild:

msbuild Apps\UC3m\SimulatedPioneerBumper\SimulatedPioneerBumper.sln

Descripción

El servicio SimulatedPioneerBumper crea una entidad visual que modela los paneles de paragolpes frontales y traseros de un robot Pioneer. Adicionalmente, el servicio implementa el contrato genérico de sensor de contacto. Por lo tanto, se puede usar desde cualquier servicio que trate con sensores de contacto. Este servicio enviará notificaciones a sus servicios suscritos cada vez que los paragolpes entren en contacto con cualquier superficie del mundo simulado.

El estado de este servicio mantiene un conjunto de 10 sensores de contacto, identificados por los nombres:  b1, b2, b3, b4, b5, b9, b10, b11, b12 y b13 como se muestra a continuación:

Los bumpers frontales y traseros del Pioneer 3 DX proporcionan puntos de percepción y lecturas individuales por cada panel de contacto, los cuales se pueden reproducir en el entorno de simulación de Robotics Studio gracias a este servicio. Cada panel mide unos 10 cm x 2.5 cm de ancho. Los segmentos se distribuyen alrededor del robot en ángulos de  -52, -19, 0, 19, and 52 grados, tal y como se muestra en la siguiente figura:

Sin embargo, hemos modificado ligeramente estas dimensiones y orientaciones para adaptar los paragolpes al modelo del robot Pioneer que viene con Robotics Studio.

Además, hemos añadido una representación gráfica de los paragolpes en el servicio CRANIUM Dashboard. La siguiente figura muestra como los paneles del paragolpes frontal b1 y b2 están presionados, mientras que los demás están libres:

Licencia

Este programa se distribuye bajo los términos de la licencia Creative Commons Reconocimiento – No Comercial – Compartir Igual 3.0 Unported; puedes redistribuirlo y modificarlo de acuerdo a sus términos y condiciones:

Reconocimiento – No comercial – Compartir igual: Este programa puede ser distribuido, copiado y exhibido por terceros si se muestra en los créditos. No se puede obtener ningún beneficio comercial y las obras derivadas tienen que estar bajo los mismos términos de licencia que el trabajo original.

Este programa se distribuye con la intención de que sea útil, pero sin ninguna garantía para ningún propósito particular.

Creative Commons License

Conciencia Robótica

Entrevista a Raúl Arrabales:
“la consciencia no es una propiedad de la materia, es simplemente un proceso”. Por Tercera Cultura día 15 Diciembre, 2008.

Raúl Arrabales es profesor ayudante del departamento de informática de la universidad Carlos III de Madrid. Se ha especializado en la conciencia artificial y ha creado un sitio web dedicado exclusivamente a esta cuestión: www.Conscious-Robots.com

Aunque Arrabales es especialista en conciencia robótica, la entrevista se dirige fundamentalmente a entender la conciencia humana. Cita a Edelman y Tononi para explicar el origen neurológico de la conciencia y defiende la colaboración entre psicólogos y neurólogos para resolver esta cuestión. Caracteriza la conciencia como un proceso nada enigmático -no es preciso recurrir a nuevas leyes de la física cuántica para entenderlo- y considera que llegará el día en que se diseñarán máquinas conscientes.

Roger Corcho
roger.corcho@terceracultura.net

Tercera Cultura: ¿Qué es la conciencia? ¿Cuál es la mejor teoría o el mejor modelo que a su tenor explica este fenómeno? ¿Se podrá llegar a materializar la experiencia subjetiva? ¿Cuál es el teórico que, según tu opinión, se ha aproximado mejor a entender este fenómeno?

Raúl Arrabales: En primer lugar, en español conviene distinguir entre dos acepciones distintas de la palabra conciencia. Por un lado esta palabra puede hacer referencia al conocimiento inmediato que tiene un ser de sí mismo, pero por otro lado también se usa para referirse a la capacidad que tenemos los humanos para juzgar el bien y el mal. En definitiva, la segunda acepción se refiere a la metafórica vocecita que nos recuerda que hemos obrado mal.

 Mi campo de investigación se centra en el primer concepto, el del auto-conocimiento. En realidad, la con*s*ciencia (yo prefiero utilizar la palabra con ese para referirme a este significado) engloba multitud de conceptos relacionados. Desde este punto de vista podríamos definir la consciencia como la integración efectiva de diversas capacidades mentales como la atención, los sentimientos, el sentido del yo, la toma de decisiones, la imaginación, la empatía, etc.

 En cuanto al estudio científico de la consciencia y los modelos que tratan de explicarla me gustaría resaltar dos puntos que considero interesantes: en primer lugar, creo que todavía no contamos con una teoría satisfactoria que dé una explicación completa de qué es y cómo se produce la consciencia. En segundo lugar, aunque existen diversas hipótesis que tratan de explicar la consciencia, no creo que sean enfoques excluyentes o que compitan unas con otras. En realidad cada una ataca aspectos específicos del fenómeno de la consciencia. Sí que es cierto, sin embargo, que hay algunas teorías que han tenido más éxito entre la comunidad científica que estudia la consciencia. En este punto podríamos distinguir entre dos tipos de teorías: las psicológicas y las neurológicas. Un ejemplo de teoría psicológica es la Teoría del Espacio de Trabajo Global de Baars. Esta teoría usa el símil de una obra de teatro para explicar la consciencia. En cualquier caso, esta explicación no deja de ser una metáfora, que ayuda a entender qué es la consciencia, pero no ofrece ninguna indicación sobre cómo se produce la misma en los humanos. Por el contrario, las teorías neurológicas se centran en buscar los mecanismos existentes en el sistema nervioso central que dan lugar a la consciencia. Un ejemplo relevante es la hipótesis del Núcleo Dinámico de Edelman y Tononi que trata de explicar cómo las conexiones neuronales del complejo talamocortical dan lugar a la percepción consciente. En general hay consenso entre los neurólogos acerca de que el complejo talamocortical es clave en la generación de la consciencia.

 Creo que la tendencia actual va en el sentido de aunar las explicaciones de alto nivel proporcionadas por las teorías psicológicas y las hipótesis sobre el sustrato neuronal de bajo nivel que sustenta las primeras. En definitiva, los estudios sobre la consciencia siempre implican un esfuerzo multidisciplinar y creo que no sería justo citar una teoría concreta como la más acertada. Es más bien la colaboración entre las disciplinas técnicas, teóricas y empíricas la que dará en último término una respuesta satisfactoria. En este aspecto no conviene olvidar que las ciencias de la computación e inteligencia artificial pueden ser un complemento clave en el esclarecimiento de algunos aspectos de la consciencia.

 En relación a la materialización de la experiencia subjetiva, supongo que te refieres a la construcción de máquinas que tengan experiencias subjetivas. Aquí la dificultad radica en que la característica principal de la experiencia subjetiva es que es algo no material. Desde mi punto de vista es un proceso. Con lo cual la pregunta pasaría a ser: ¿se puede reproducir de forma artificial el proceso que da lugar a la experiencia subjetiva? O en otras palabras, ¿podemos crear una mente no material en una máquina? Esta pregunta está relacionada con el llamado “problema duro” de la consciencia, que se refiere a la explicación en términos científicos de algo que no es físico y que no se puede demostrar a través del método científico clásico. Para poder estudiar cualquier fenómeno de forma científica es requisito imprescindible que se pueda observar en tercera persona. Sin embargo, la experiencia subjetiva escapa a esta restricción al no estar compuesta en sí misma por parámetros físicos. Sólo yo tengo acceso a mi experiencia subjetiva, un científico no puede observarla (observar un escáner cerebral no es observar la experiencia subjetiva), no tiene más remedio que creer lo que yo le cuento sobre mi experiencia subjetiva. Por suerte, nosotros mismos podemos actuar como científicos de la consciencia y observar nuestra propia experiencia subjetiva por medio de la introspección. Para responder finalmente a la pregunta sobre si es posible reproducir experiencias subjetivas no materiales en máquinas, creo que sí es posible. De hecho, los informáticos estamos acostumbrados a crear entidades no materiales a partir de hardware convencional, un programa al ejecutarse en un ordenador se convierte en un proceso que es algo no material pero que se produce gracias a un sustrato construido a base de chips de silicio.

TC: Parece que el modelo a la hora de diseñar robots es el propio ser humano. Se pretende que las máquinas sustituyan al ser humano en muchos ámbitos y que hagan de forma más eficiente su trabajo. ¿Habrá alguna vez robots conscientes?

 Desde luego el modelo a imitar en el campo de la robótica siempre ha sido el ser humano. Sin embargo, debido a que esto constituye un reto colosal, en muchas ocasiones se ha optado por rebajar temporalmente las ambiciones y tomar otros animales relativamente más simples como modelo. En la actualidad, gracias a los últimos avances técnicos que se han logrando parece que se intenta retomar el reto original de los robots humanoides, pero seguimos adoleciendo de un punto débil en las capacidades cognitivas de los mismos. Yo personalmente creo que sí seremos capaces de construir robots conscientes, aunque puede que la consciencia que experimenten estos robots no sea como la nuestra. De hecho, creo que la consciencia artificial de un robot debería adaptarse al tipo de trabajos que debe desempeñar. No se necesita experiencia subjetiva ni sentimientos para estar todo el día soldando piezas en una cadena de montaje, sin embargo estas capacidades pueden ser cruciales para un robot social como un asistente para personas mayores.

TC: El filósofo Víctor Gómez Pin afirma que la inteligencia artificial es un timo, que no hay tal cosa, mientras que neurólogos como Adolf Tobeña consideran que en la actualidad ya hay máquinas inteligentes. ¿Cuál es tu punto de vista? ¿Qué opinión te parece equivocada y qué le dirías para sacarle del error?

Hoy en día la expresión Inteligencia Artificial se usa para designar a un campo de investigación científica bien establecido, aunque con sólo 50 años de historia. Yo creo que el concepto de inteligencia se puede estudiar como la capacidad de un ser de sobrevivir y adaptarse al medio en el que se encuentra. Que la inteligencia como propiedad pueda existir en una máquina, yo no lo pongo en duda. Otra cosa es el nivel de inteligencia que puedan desarrollar diferentes entidades de acuerdo a su diseño. Cuando se habla de inteligencia y de consciencia, se suele hablar en términos absolutos, sin embargo, yo prefiero hablar de niveles cualitativos o de medidas cuantitativas (aunque establecer estas medidas sea complicado). En ese sentido, estoy de acuerdo en que hoy en día no tenemos máquinas con la misma inteligencia que un humano, pero sí tenemos máquinas con cierta inteligencia. Por ejemplo, creo que sí tenemos máquinas con una inteligencia comparable a la de un mosquito. Uno de los objetivos de la consciencia artificial es dotar a las máquinas de una inteligencia similar a la humana, para eso se necesitan capacidades como el sentido común y la imaginación. El problema es que hoy en día no tenemos máquinas que sean capaces de enfrentarse con éxitos a situaciones nuevas en entornos complejos, pero sí que tenemos implementaciones de aprendizaje automático que son capaces de aprender y generalizar en ciertos entornos controlados. Por ejemplo, tenemos sistemas de inteligencia artificial capaces de detectar automáticamente intrusiones malintencionadas en una red informática.

TC: ¿Qué significa el término computabilidad? ¿Cómo se utiliza esta noción para descartar la posibilidad de que una máquina llegue a ser consciente? ¿Piensas que será necesario recurrir a nuevas leyes de la naturaleza para entender la conciencia y, por tanto, diseñar ordenadores conscientes?

 Algunos investigadores equiparan el cerebro humano con un ordenador, porque en definitiva, al igual que un ordenador, toma unas entradas, las procesa (es decir, computa) y finalmente produce una salida. Sin embargo, un cerebro produce algo más que una mera salida física (comportamiento), también provoca lo que conocemos como experiencia subjetiva. El problema es que los zombis filosóficos son a priori posibles desde un punto de vista puramente científico. Un zombi es una persona que procesa las entradas de sus sentidos y produce un comportamiento adaptado, pero que no tiene experiencia subjetiva alguna. ¿Cómo podemos saber si una persona siente algo cuando grita de dolor? Podría ser simplemente una respuesta programada en su cerebro, como un robot al que programamos para que diga “¡ay!” cuando se acciona un sensor de presión. Lo que pasa normalmente cuando vemos a una persona gritar de dolor es que inferimos que siente dolor al igual que lo sentiríamos nosotros en la misma situación. Es decir, de alguna forma “nos ponemos en su lugar” y sentimos empatía. Sin embargo, si vemos un robot gritar de dolor, ¿cómo sabemos si realmente está sintiendo algo? En este caso no podemos establecer la analogía con nosotros mismos, pues se trata de una máquina totalmente distinta. ¿Significa esto que no es posible que un robot tenga experiencia subjetiva? La clave está en saber si la experiencia subjetiva se produce gracias al sustrato biológico específico que tienen los humanos. Algunos investigadores como Penrose y Hameroff argumentan que la experiencia subjetiva se produce gracias a fenómenos cuánticos que tienen lugar en los microtúbulos que hay en las neuronas. Si eso fuera cierto, sólo podríamos construir máquinas conscientes usando ordenadores cuánticos que reprodujeran ese tipo de procesos.

Yo particularmente creo que no es necesario recurrir a la mecánica cuántica para entender la consciencia y que podemos crear procesos conscientes en máquinas atendiendo a las leyes conocidas de la naturaleza. En definitiva yo veo la consciencia como un proceso específico en ejecución. Para mí la consciencia no es una propiedad de la materia, es simplemente un proceso.

TC: Han existido algunas corrientes como la Inteligencia Artificial fuerte que tienen puntos de vista extremos sobre la inteligencia. ¿Crees que tienen alguna base para sostener tales tesis?

 En realidad la IA fuerte se corresponde con el objetivo original del propio campo de la IA: crear máquinas tan inteligentes y tan conscientes como los humanos. Lo que sucedió es que los objetivos tuvieron que relajarse debido a las falsas expectativas que se habían creado. En definitiva, lo que ha pasado es que nos hemos dado cuenta de la tremenda complejidad de esta empresa, pero eso no significa que se haya abandonado esta rama de la IA. De hecho, en los últimos años estamos asistiendo a un resurgimiento de esta rama dura materializado en las líneas de la Consciencia Artificial y la Inteligencia Artificial General. Personalmente creo que son campos que merece explorar para comprobar efectivamente donde están los límites. De lo que estoy seguro es si no hay base para sostener que los objetivos de la IA fuerte sean inalcanzables.

TC: ¿Crees que se está aprovechando el potencial educativo de los ordenadores? ¿Qué elementos se podrían introducir en la escuela para que la enseñanza fuera más efectiva? Antiguamente,  la clase adinerada contrataba a tutores para sus hijos, que de esta forma disponían de una enseñanza personalizada eficiente. ¿Los ordenadores podrían cumplir esta función de una forma más democratizada?

 Desde luego hoy en día sería una pena que no se usara masivamente el potencial de la informática en educación. Las tecnologías de la información en general son una excelente herramienta para mejorar la educación. Ni profesores ni alumnos deben prescindir de herramientas tan potentes, teniendo en cuenta que ahora están disponibles a un coste bajo al menos en el mundo desarrollado. Como cualquier herramienta, sigue siendo labor del docente enseñar a sus alumnos como sacar buen provecho de ella. En el futuro, podríamos contar con robots docentes, que ofrecieran un interfaz mucho más natural para la educación.

TC: Según Varela, un  sistema nervioso no es un sistema de procesamiento de información porque, por definición, los sistemas de procesamiento de información necesitan entradas claras. ¿Nos podrías aclarar esta conclusión?

Más bien yo diría que un sistema nervioso es un sistema de procesamiento de información analógico, donde la información que se adquiere de los sentidos puede tomar valores continuos. Por el contrario un ordenador convencional está basado en circuitos digitales, cuyas entradas se componen de valores discretos. Independientemente del sentido que se le quiera dar al término procesamiento, en ambos casos se realiza un procesamiento de la información y se generan unas salidas.

La posibilidad de crear máquinas conscientes

En 30 años tendremos una alternativa a la muerte: ser un fantasma dentro de una máquina.

En un reciente artículo escrito por Christof Koch y Giulio Tononi [1], los autores argumentan que en 30 años podremos cargar nuestra mente en un ordenador. De hecho, ya podemos empezar a crear nuestros “archivos de mente” usando servicios como Lifenaut.

A pesar del optimismo de esta afirmación, Koch y Tononi nos recuerdan que todavía no sabemos bien qué es exactamente la consciencia. Ellos creen que la consciencia llegará a recrearse de forma artificial en un futuro no muy lejano, sin embargo puede que no sea el mismo tipo de consciencia en el que estamos pensando.

La primera suposición que los autores usan como base de su argumentación es que la consciencia se produce en el cerebro como un proceso natural, que está sujeto a las leyes  de la física, la química y la biología. La actividad del complejo talamocortical parece jugar un factor clave en la producción de la consciencia. En cualquier caso, otras funciones o áreas cerebrales (incluso aquellas que caracterizan a los seres humanos) no serían necesarias para la existencia de la consciencia. Incluso la interacción con el entorno no sería necesaria (siempre que ésta se hubiera producido con anterioridad). En otras palabras, podemos tener experiencias conscientes totalmente interiores.

Continue reading “La posibilidad de crear máquinas conscientes”

Aldebaran NAO

El siguiente vídeo muestra un robot Aldebaran NAO en una demo en el WAF 2008 (Workshop de Agentes Físicos 2008. Vigo, España). El robot del vídeo es uno de los que usan en la Universidad Rey Juan Carlos de Madrid para competir en la Robocup. Desde que Sony decidió abandonar la producción de Sony Aibo, Nao se ha convertido en el nuevo robot físico para competir en la misma categoría.

Como se puede ver en la demo, el Nao todavía requiere algunos ajustes en el equilibrio y los movimientos para convertirse en un jugador de fútbol ágil.

Competición RoboChamps

Microsoft ha lanzado recientemente el portal y la competición de simulación robótica RoboChamps.

El portal Robochamps.com proporciona la plataforma necesaria para la liga de competiciones de robótica. Es posible realizar entrenamientos, descargarse el software necesario y participar en la comunidad de competidores. RoboChamps se basa en software de simulación, por lo tanto no necesitas un robot hardware real para competir. La idea es que puedas empezar a programar robots simplemente usando Microsoft Robotics Developer Studio 2008 y Visual Studio.

Como la competición se basa en el MRDS 2008 y sus capacidades de simulación, puedes usar cualquier lenguaje de .NET para programar tu robot simulado. Lo bueno es que podrías usar exactamente el mismo código para controlar un robot real. En cualquier caso, la gran ventaja de esta competición basada en software de simulación es que te proporcionan entornos de simulación completos. Normalmente, es complicado disponer de un escenario como estos en el mundo real, así que usando estos entornos simulados se puede probar y entrenar un controlador autónomo para un robot en situaciones parecidas a las que se podrían dar en la realidad.

Imagina controlar un robot de rescate en una ciudad que acaba de sufrir un desastre natural o un atentado terrorista, o deja que tu coche robótico conduzca solo en condiciones de tráfico intenso… O la opción mucho más tranquila de la exploración de la superficie marciana. Estos son algunos de los retos que se proponen en RoboChamps.

Cada reto consiste en un entorno simulado 3D, un robot, un escenario para el reto y una serie de reglas de obligatorio cumplimiento para completar el escenario. También se dispone de un servicio de árbitro que es capaz de monitorizar tu servicio de control asegurándose que se cumplen las reglas y calculando la puntuación y enviándola a Robochamps.com.

Los retos disponibles son:

  • AMAZED CHALLENGE (LABERINTO): Usa tus sensores para evitar trampas y otras sorpresas mientras exploras los recovecos de Amazed.
     
  • MARS ROVER: CHALLENGE (EXPLORACIÓN MARCIANA): Próxima parada, ¡Marte! Explora el terreno del planeta rojo y recoge información para su análisis de vuelta en la Tierra. {mosimage}
     
  • URBAN CHALLENGE (TRÁFICO URBANO): ¿Odias conducir hasta el centro? ¿Y si pudieras programar un coche para que lo haga él solo? Ahora puedes.
     
  • SEARCH & RESCUE CHALLENGE (BÚSQUEDA Y RESCATE): ¿Preparado para ser un héroe? Registra los escombros que quedan después del desastre para encontrar y rescartar supervivientes.
     
  • SUMO CHALLENGE (SUMO): Dos robots. Un ring. ¡Es hora del sumo! Desequilibra a tu oponente y empújalo fuera del ring para reinar victorioso.
     
  • TOURNAMENT (TORNEO): ¿Eres el mejor de los mejores? Salta al terreno de batalla con tu robot y tu mejor código para competir cara a cara con los mejores.

Microsoft Robotics Developer Studio 2008 CTP Abril

Disponible Microsoft Robotics Developer Studio 2008 CTP Abril

Ayer (9 de Abril de 2008) el grupo de robótica de Microsoft anunció la primera versión preliminar (CTP – Community Technical Preview) de Microsoft Robotics Developer Studio 2008. Esta plataforma es la tercera versión de la conocida anteriormente como Microsoft Robotics Studio. Se espera que el nuevo Microsoft Robotics Studio Developer Studio 2008 (RDS 08) mejore el rendimiento de ejecución (runtime) hasta en un 300%. Como explicó Tandy Trower, Director General del grupo de robótica, durante la conferencia RoboBussines en Pittsbrugh, RDS 08 está basado en un modelo de programación mucho más asíncrono y distribuido.

Tal y como informó Henrik F Nielsen en los foros MSDN de MSRS, las nuevas características y mejoras (en relación con la versión actual Robotics Studio 1.5 que hay actualmente liberada) son:

– Mejora del modelo de seguridad con soporte para autorización a nivel de mensaje usando control de acceso basado en roles, lo que permite un control preciso de quien puede acceder a que servicios y como.

– Soporte de consultas LINQ en las suscripciones DSSP, lo que permite que las aplicaciones creen consultas complejas que se ejecutan cerca de la fuente de datos en vez de requerir el movimiento de datos por la red.

– Soporte para la creación de aplicaciones que se ejecuran en múltiples nodos DSS usando el lenguaje de programación visual (VPL) y el editor de Manifiestos DSS (Manifest Editor). Esto simplifica bastante la creación de aplicaciones que se ejecutan en múltiples nodos, tanto en la misma máquina como distribuidos por la red. Cuando se arranca una aplicación que contiene múltiples nodos, VPL crea paquetes de despliegue (deploy packages) individuales para cada nodo y los distribuye por la red.

– Soporte de grabación y reproducción en el entorno de simulación visual que permite grabar la posición y la orientación de cada entidad y guardar la información a un archivo que se puede reproducir posteriormente.

– Soporte para almacenar recursos audiovisuales de simulación como mapas de texturas, mapas de bits y archivos de mallas 3D directamente como parte de los ensamblados CLR en forma de recursos embebidos en vez de archivos externos.

– Nuevo editor de planos de simulación que permite al usuario definir paredes, puertas, ventanas, etc. para representar el interior de una habitación, casa u otro edificio.

Espero probar este CTP en los próximos días, así que publicaré cualquier comentario de interés al respecto de este nueva versión de Robotics Studio.

Enlaces relacionados:

Robotics Developer Studio 2008 April CTP Download
New features and improvements list
Conscious-Robots.com Páginas de Robotics Studio
Conscious-Robots.com FORO de Robotics Studio

¿Puede un robot pasar la prueba del espejo?

La prueba del espejo para robots

En primer lugar, la prueba del espejo no está diseñada exactamente como una prueba general de consciencia, si no que es una prueba específica de auto-consciencia, y más exactamente de auto-reconocimiento. Se aplica generalmente a algunos mamíferos superiores y a bebés. La prueba consiste en determinar si un sujeto puede reconocer su propia imagen reflejada en un espejo. Hasta ahora sólo individuos pertenecientes a las siguientes especies han pasado la prueba del espejo:

mirror-test-chimp

  • humanos (de más de 2 años de edad),
  • grandes simios (bonobos, chimpancés, orangutanes y gorilas),
  • monos rhesus,
  • elefantes,
  • delfines mular,
  • ratas
  • y pulpos.

Creo que es importante tener en cuenta que sólo un determinado número de individuos de estas especies han pasado la prueba, mientras que otros generalmente la fallan. Obviamente la prueba tiene que adaptarse para cada especie, aunque típicamente consiste en hacer marcas no olorosas en la frente del animal mientras este está anestesiado.

La prueba del espejo se considera por algunos autores como la mejor forma disponible de probar la auto-consciencia de un organismo (ver por ejemplo cómo se aplica esta técnica a los elefantes en [1]. En [2] hay abierto un debate sobre la validez de esta prueba). La prueba del espejo es famosa gracias a su aplicación en primates tal y como la introdujo Gordon Gallup in los 70 [3]. Sin embargo, se ha hecho poco hincapié en la aplicación de esta prueba para robots.

¿Podemos construir un robot capaz de pasar la prueba del espejo? Y si es así, ¿sería este robot realmente auto-consciente?

awarerobot_zoom

Takeno et al. [4] de la Universidad de Meiji en Japón creen que han superado la prueba del espejo con éxito al haber construido un sistema de reconocimiento de la propia imagen reflejada en un espejo. Estos autores definen cuatro pasos para sus experimentos, donde se han usado cuatro robots: el robot yo Rs, el robot otro Ro, el robot controlado Rc y el robot automático Ra. Los primeros dos robots están dotados con el sistema de reconocimiento de imágenes especulares. El tercer robot está controlado por el robot yo, mientras que el último se mueve automáticamente.

Los cuatro experimentos se describen a continuación:

1) El robot yo Rs imita la acción de su propia imagen reflejada en un espejo.
2) El robot yo Rs imita una acción realizada intencionadamente por el robot otro Ro como un comportamiento de imitación.
3) El robot controlado Rc se controla completamente desde el robot yo Rs para imitar su comportamiento.
4) El robot yo Rs imita las acciones aleatorias del robot automático Ra.

El robot es capaz de reconocer su propia imagen reflejada en el espejo sin confundirla con la imagen de otro robot con el mismo aspecto físico. El sistema de reconocimiento de imagen especular está basado en una rede de neuronas artificiales. El objetivo de este sistema es reconocer y diferenciar el comportamiento del propio robot del comportamiento de otro robot. Takeno también sugiere que la imitación es una prueba de consciencia ya que requiere el reconocimiento del comportamiento de otro sujeto y luego la aplicación de este comportamiento a uno mismo.

Los resultados descritos en el artículo indican que de alguna forma los robots pasan la prueba del espejo con una tasa del 70% de aciertos, pero aun así soy reacio a decir que éstos son auto-conscientes. Yo diría que presentan consciencia de acceso (a-consciousness) de los comportamientos reconocidos.

[1] http://www.conscious-robots.com/es/neurociencia/cerebro-de-mam-feros/los-elefantes-reconocen-su-propia-imagen-ante-un-e.html
[2] http://www.conscious-robots.com/en/forums-./test-for-consciousness/mirror-test/view.html
[3] Gallup, G.G., Jr. (1977). Self-recognition in primates: A comparative approach to the bidirectional properties of consciousness. American Psychologist, 32, 329-337.
[4] Junichi Takeno, Keita Inaba, Tohru Suzuki. Experiments and examination of mirror image cognition using a small robot. Proceedings. 2005 IEEE International Symposium on Computational Intelligence in Robotics and Automation, 2005. CIRA 2005. Full paper available at: http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1554325