MobileRobots Pioneer 3 (P3 DX)

El Pioneer 3 DX es una base robótica de MobileRobots Inc. (ActivMedia Robotics). Este robot con ruedas se ha actualizado en su versión P3-DX8 para llevar cargas de forma más robusta y mejorar la autonomía.

Aunque el P3-DX ofrece la opción de ordenador empotrado se puede equipar con un ordenador portátil normal gracias a la carga permitida de 23 Kg. Obiamente, el ordenador empotrado es una solución más robusta y elegante, sin embargo, también es una opción mucho más cara. La principal desventaja de usar un ordenador portátil como ordenador de a bordo es la pérdida de superficie para colocar otros sensores y actuadores que se podrían instalar en ese lugar (ver imágenes más abajo).

Igual que otros robots de MobileRobots, el P2DX8 está basado en un modelo cliente-servidor que proporciona una serie de bibliotecas y utilidades para aplicaciones inteligentes (los robots actúan como los servidores). No entraré en detalles sobre esta arquitectura ya que estoy más interesado en usar Microsoft Robotics Studio para controlar estos robots. Volveremos sobre este tema de nuevo cuando hablemos sobre el desarrollo de software para esta plataforma robótica.

Las principales características hardware de esta unidad son: comunicaciones basadas en ethernet (opcional), laser (opcional), hasta 252 watios-hora de baterías intercambiables en caliente (que por cierto añaden bastante peso al robot), anillo frontal de 8 sensores sonar, anillo posterior de 8 sensores sonar (opcional), dos motores independientes, 2 ruedas de 19 cms. y una rueda de giro libre. Velocidad máxima de 1.6 m/s. Otras opciones interesantes son los parachoques, pinzas, visión, rangefinders, brújula, etc.

Los nuevos robots Pioneer 3 tienen un microporcesador RISC Renesas de 32 bits SH2-7144, e incluyen un microcontrolador P3-SH con ARCOS. ARCOS es el software cliente servidor que hace de interfaz para el control del robot. Si quieres desarrollar tus propias aplicaciones de control tienes que hablar con el interfaz ARCOS. Yo particularmente no estoy interesado en usar un interfaz o plataforma específico como ARCOS, prefiero usar un entorno de desarrollo común como MSRS. Desde luego, ARCOS sigue ahí, porque los servicios de MSRS finalmente llaman a la interfaz ARCOS, así que el control del robot se realiza en última instancia llamando a la API nativa.

Otro componente software de alto nivel que viene con todas las plataformas de MobileRobots es ARIA (Interfaz Avanzado de Aplicaciones Robóticas). ARIA es un entorno de desarrollo basado en C++ que proporciona soporte para comunicaciones TCP/IP con el robot. Las típicas aplicaciones disponibles a través de ARIA son: mapeo, teleoperación, monitorización, etc. Como dije antes, no voy a entrar en más detalles sobre ARCOS y ARIA porque mi interés se centra en MSRS.

El siguiente vídeo muestra un P3-DX explorando el entorno de forma autónoma:

Los manuales y otros documentos están disponible en: http://robots.mobilerobots.com/docs/

Emociones, juicio moral y razón

 Aunque los enfoques clásicos en IA normalmente han ignorado la dimensión sentimental, ésta es cada vez más importante en las arquitecturas cognitivas artificiales actuales. Durante las últimas décadas, el estudio neurobiológico de las emociones ha proporcionado un nuevo entendimiento de los mecanismos subyacentes. El análisis de pacientes con daños cerebrales y el uso de técnicas de neuro-imagen proporcionan valiosas pistas a los científicos acerca del funcionamiento de nuestros cerebros emocionales

En el libro “Descartes’ Error: Emotion, Reason, and the Human Brain” escrito por el neurobiólogo Antonio R. Damasio se plantea el argumento de que los sentimientos y la razón son muy dependientes uno del otro [1]. El famoso caso de Phineas Gage, cuyos lóbulos frontales se dañaron en un accidente se explora en detalle en este libro. Phineas P. Gage (1823-1860) sufrió daño cerebral en el trabajo cuando una vara de hierro traspasó accidentalmente su cráneo (ver ilustración).

{mosimage} Se dice que el caso de Gage es la primera prueba clínica del rol del lóbulo frontal en la personalidad y la interacción social. De hecho, después de sufrir el accidente, los amigos de Gage comentaron que él ya no era la misma persona, se había convertido en un insociable. El fragmento siguiente (en inglés) es del médico de Gage: Harlow (1968):

Gage was fitful, irreverent, indulging at times in the grossest profanity (which was not previously his custom), manifesting but little deference for his fellows, impatient of restraint or advice when it conflicts with his desires, at times pertinaciously obstinate, yet capricious and vacillating, devising many plans of future operations, which are no sooner arranged than they are abandoned in turn for others appearing more feasible. A child in his intellectual capacity and manifestations, he has the animal passions of a strong man. Previous to his injury, although untrained in the schools, he possessed a well-balanced mind, and was looked upon by those who knew him as a shrewd, smart businessman, very energetic and persistent in executing all his plans of operation. In this regard his mind was radically changed, so decidedly that his friends and acquaintances said he was ‘no longer Gage. [2]

Damasio propone una teoría llamada hipótesis del marcador somático, que sugiere una relación entre los lóbulos frontales, las emociones y la toma de decisiones. Desde el caso de Gage, Antonio R. Damasio, Marc Hauser y sus colegas han estudiado seis casos más de daños localizados en el cortex prefrontal ventromedial (VMPC), uno de los nodos emocionales y sociales del cerebro. Estos estudios han concluido que este tipo de daños incrementan los juicios morales utilitarios [3]. En este contexto, el término utilitario viene del utilitarismo y se refiere a los juicios, o dilemas morales, en los que el conflicto se produce entre una agregación y un comportamiento emocionalmente inaceptable. Por ejemplo, tener que sacrificar la vida de una persona para salvar un número mayor de vidas.

Según Raymond J. Dolan, Los pacientes con lesiones prefrontales a menudo muestran comportamientos irresponsables, aunque intelectualmente no tienen ninguna deficiencia. De forma similar, las lesiones ocurridas en la infancia pueden impedir que se adquiera un conocimiento sobre los estándares aceptados de comportamiento moral. [4]

[1] Antonio R. Damasio (1995) Descartes’ Error: Emotion, Reason, and the Human Brain
[2] Harlow, J.M. (1868). “Recovery from a Passage of an Iron Bar through the Head”. Publications of the Massachusetts Medical Society 2: 327-347.
[3] Michael Koenigs, Liane Young, Ralph Adolphs, Daniel Tranel, Fiery Cushman, Marc Hauser & Antonio Damasio. Nature 446, 908-911 (19 April 2007).
[4] Raymond J. Dolan. On the neurology of morals. Nature Neuroscience 2, 927 – 929 (1999).

Enlaces relacionados:

Phineas Gage information page: http://www.deakin.edu.au/hmnbs/psychology/gagepage/index.php
Fact sheets on brain injury: http://www.braininjury.org.au/portal/index.php

En el futuro, podremos crear máquinas conscientes

En el futuro, podremos crear máquinas conscientes.

Entrevista con el premio Nobel Gerald Edelman.

Fuente: El Mundo Digital [1].

Gerald Edelman obtuvo el Premio Nobel de medicina en 1972 a la edad de 43 años. Edelman había descubierto la estructura de los anticuerpos, un hallazgo crucial para el estudio de múltiples enfermedades infecciosas y el desarrollo de vacunas efectivas. Poco después de aquello, Edelman perdió el interés en la inmunología y se centró en una de las grandes preguntas de todos los tiempos: ¿cómo funciona el cerebro?

En las últimas dos décadas Edelman se ha convertido en uno de los científicos más respetados en el campo de la neurología. Además, ha fundado un instituto de investigación en San Diego donde dirige a un reducido equipo de jóvenes científicos cuyo objetivo es resolver el misterio de la consciencia. Esta semana Edelman ha visitado Valencia para participar como jurado en los premios Jaime I. A continuación se ofrece una transcripción de la entrevista realizada a Gerald Edelman y publicada por El Mundo:

Continue reading “En el futuro, podremos crear máquinas conscientes”

BEAR (Battlefield Extraction-Assist Robot)

BEAR (Robot de Asistencia en el Campo de Batalla)

Es un prototipo de la compañía Vecna Robotics [1] diseñado para encontrar, recoger y rescatar a personas heridas. Este OSO (BEAR en inglés) puede levantar cargas de hasta 135 Kg. y desplazarlas a gran distancia. Su objetivo es realizar tareas de rescate donde la presencia de humanos es un riesgo para su vida.

BEAR no es un robot autónomo, si no que está controlado de forma inalámbrica por un operador humano. Sin embargo, Vecna planea implementar comportamientos autónomos que hagan que el robot sea más fácil de manejar en el futuro. Actualmente el desarrollo de este robot se encuentra en fase de prueba de concepto. El prototipo actual ha demostrado que es capaz de recoger un dummy humano de peso normal.

Los prototipos anteriores estaban basados en un sistema Segway de dos ruedas con equilibrio automático (como puede verse en el primer vídeo a continuación). Sin embargo, el prototipo actual (como se muestra en la imagen y en el segundo vídeo) monta un conjunto de orugas. Este sistema permite al robot viajar agachado en una postura ‘centauro’ e incluso reclinarse.

El proyecto está planificado para terminar en 5 años. Cuando finalice ese periodo, el robot estará listo para uso de campo en las fuerzas armadas de EEUU (TATRC [2]).

 Los siguientes vídeos muestran algunos de los prototipos BEAR:

El robot BEAR es un parque:

Simulación del Robot BEAR en un rescate en una segunda planta:

[1] Página Web de Vecna Robotics.
[2] Página Web de TATRC.

Modelo de Versiones Múltiples

El modelo de las versiones múltiples (Multiple Draft Model), descrito por (Dennett 1991), emplea la metáfora de la revisión editorial para describir los procesos cognitivos de la consciencia.

En este ámbito, las coaliciones de procesadores inconscientes son sometidas a un proceso de edición y revisión reiterativo (produciendo diversos borradores) hasta que se presentan oficialmente como contenidos conscientes de la mente.

Dennett argumenta que no existe ningún lugar en el cerebro donde se realice un control centralizado. Contrariamente, la actividad se desarrolla en subprocesos distribuidos, los cuales no conocen a los subprocesos que paralelamente se crean en la mente. Esto contrasta con la metáfora planteada por Baars, donde se supone que existe un lugar central de representación de los contenidos conscientes. Ambas metáforas son en realidad materialistas, porque descartan el dualismo cartesiano tal y como se ha planteado anteriormente. Sin embargo, en el caso de las versiones múltiples es más patente este materialismo al no apuntar a ningún punto concreto del cerebro como el productor de la consciencia. Además, Dennett descarta explícitamente el dualismo, que llega a calificar como mero resultado de la ignorancia o incapacidad científica de otros autores.

Dejando aparte el debate filosófico, desde el punto de vista funcional Dennett define al ser consciente como poseedor de un punto de vista. Como el cerebro tiene una limitación en cuanto a la cantidad de información que puede procesar en un determinado momento, una mente consciente es un observador que recoge un subconjunto parcial de toda la información que hay en el entorno. Esta información no se trata secuencialmente, si no que el cerebro dispone de numerosos módulos paralelos que procesan esta información. Dennett añade que además de procesarla, la información está constantemente siendo revisada y modificada para adaptarse a las nuevas informaciones que van entrando. Esto explica nuestra capacidad de ser conscientes simultáneamente de percepciones que tardan diferente tiempo en ser procesadas (por ejemplo, los estímulos visuales tardan más en ser procesados que los auditivos). Lo que experimentamos de forma consciente es el resultado de multitud de procesos interpretativos. Muchas de las versiones que se van elaborando son descartadas y desaparecen a lo largo del tiempo. Cuando sólo queda una versión, ésta pasa a formar parte del flujo narrativo y se almacena en memoria. A su vez, estos contenidos de la memoria que afectan a la consciencia también están sujetos a revisión. Dado que no existe un revisor central que de sentido a la narración que se está creando, no existe un momento concreto en el que un contenido que no es consciente pasa a serlo.

Dennett argumenta que la consciencia se ejecuta en una especia de máquina virtual modulada por el aprendizaje cultural y que se ejecuta sobre el hardware paralelo del cerebro (ver Ilustración 1). Esta máquina virtual instala en el cerebro un conjunto organizado de “hábitos de mente” que no son visibles a nivel neuroanatómico. El éxito de la implantación de este tipo de maquinaria consciente se debe a un sinfín de micro-disposiciones existentes gracias a la plasticidad cerebral.

En definitiva el modelo propuesto por Dennett implica que la versión consciente de nuestro pensamiento es la ganadora de un proceso continuo de revisión y cambio. Los factores que determinan qué versión es la “oficial” en cada momento pueden ser diversos. Por ejemplo, en momentos de ira, las coaliciones de procesadores inconscientes que presenten versiones más iracundas serán las ganadoras. En cualquier caso, el cerebro siempre busca una explicación que se adapte plausiblemente (según ciertos criterios) a las informaciones percibidas, pero no necesita necesariamente que la versión consciente se corresponda con la realidad.