Thursday, August 02, 2007

LIKE ROBOTS, HUMAN BEINGS ARE ALSO (BIO)MACHINES.

http://www.youtube.com/watch?v=HuqL74C6KI8




An extensive article of Robin Marantz Henig, published in the NYT, give an account of the last cosmovisions in the build up of robots. Let us see:

I)Although he works a lot in the construction of robots with emotions, Rodney Brooks (ex-Director of the Laboratory of Artificial Intelligence [AI], of the MIT), assures that the final goal is to discover differences between the alive matter and the inert one, as long as when getting undressed the mechanisms of the alive beings, it will be possible to endow life to robots. Brooks like Craig Venter, believes that life is an emergent property, propelled for the environment and not for predetermined cognitive programs (intelligence). Brooks that assumes that great part of human lives works with an automatic pilot, assures that that our acts are mobilized by interactions with the environment, not existing a preconceived plan of what we are about to make. We are similar to machines -that alone after facts- we rationalize and explain.

One of the first robots with emotions was COG, a humanoid with size and human form, connected to the world and people that perceives it as a human. Cog was programmed to think and to learn like a child, absorbing new perceptions by means of their sensori-motor connections with capacity to reaction to the environment. Cog that has microphones, basic recognition of the speech and artificial voice, is capable to locate and to name objects that he never saw before. In the MIT, has also been created :KISMET, a robot with great social interaction (visual contact and emotional reading by means of interpretation of voices).
http://es.youtube.com/watch?v=EP8zN0CKQnI

If Kismet is tired, its eyes lean down, if he is happy he stand up and smile. People perceive these robots like alive, in spite of realizing that they are not. Kismet positions and repositions its eyes, lips and brows (automatic, unconscious expressions, universally understood). Her designer Cynthia Breazel, assures that Kismet speaks proto-conversations. Another sociable robot is MERTZ, with cameras behind its eyes, metal head, flexible neck, child voice, eyes like balls, programmed to detect emotions and to recreate moving expressions, similar to humans). Mertz is programmed to learn the way of humans, perceiving sensations through its body, associated to feedback movements conditioned by its own behavior. Mertz learns new words and is capable of self-recognizing in a mirror. What is attempted in the MIT now, is to develop robots with true intelligence, emotions and autonomy. An initial step in that sense is : a) be able to perceive the environment and to respond to it, and b) to have a physical body with which to experience the world. Rodney Brooks (52, Flesh and Machines), is a pioneer in this type of robots.

II) According to Brooks, their contribution to the world of robots and AI, has been to explain accurately that first is the perception and later the action. Up to 1980, it was assumed that abstract reasoning, was the form but high of intelligence that programmers tried of imitate (to play chess, to solve mathematical problems). Following the German logician and mathematician Gottlob Frege and continuing with symbolic approaches tending to create an intelligent scheme (Alan's Turing, approaches). Before Brooks, the robots had an inner, centralized area, scanned their localization, had a model in 3D of the land and a plan to walk over it. Brooks on the contrary, desired to build an AI that made the things but simple: to distinguish a glass of a seat, to walk in 2 legs, to go from bedroom to the bathroom, acts difficult to write in computer codes, because they didn't require an explicit chain of reasonings. The robots of Brooks, have programmed their bodies to gather data (they see, touch, play and balance using mechanical sensors: video, cameras and gyroscopes). In Flesh and Machines, Brooks, writes: Non cognition, single perception and action. LEONARDO, a robot of last generation, is able to discriminate among 2 classes of different objects, hoping being capable in the future to develop empathy, collaboration and social bonds. Also, it is able to elaborate new versions of the original instructions, besides to collect and to classify data in a creative way. Finally it is works in the self-awareness of robots, using a camera located behind the robot's eyes, assigning a score to their own image, another for a different image and zero for none. Regarding robotic conscience, Daniel Dennett, a philosopher of Tufts’ University, says that it is possible to build a robot with at least the ability to be self-aware of its internal state.

III) It is sensed that in next years, robotic evolution will walk inexorably toward the development of autonomous robots (To read: Cerebros humanos y ordenadores.V.Mechan), many of which will enter in our lives (brain chips connected to Internet). In the last years, some neuroscientists have begun to affirm that the brain is a computer and the thoughts : the software. When our robots improve but there of our average limitations we will accept that we are machines and that the soul is a emergent multimedia property, developed starting from the necessary body's self-awareness.

Al IGUAL que LOS ROBOTS, LOS HUMANOS SON TAMBIEN (BIO)MAQUINAS.

Un extenso articulo de Robin Marantz Henig, publicado en el NYT, dá cuenta de las últimas cosmovisiones en la construcción de robots. Veamos:

I) Aunque se trabaja mucho en la construcción de robots con emociones, Rodney Brooks (ex-Director del Laboratorio de Inteligencia Artificial -AI- del MIT), asegura que la meta final es descubrir diferencias entre la materia viva y la inerte, en tanto al desnudarse los mecanismos de los seres vivientes, será posible dotar de vida a los robots. Brooks al igual que Craig Venter, creen que la vida es una propiedad emergente, signada por el entorno y no por programas cognitivos (inteligencia), predeterminados. Brooks, que asume que gran parte de las vidas humanas funciona con un piloto automático, asegura que lo que hacemos es movilizado por interacciones con el entorno, no existiendo un plan preconcebido de lo que estamos a punto de hacer. Somos similares a las máquinas -solo que después de los hechos- racionalizamos y explicamos.

Uno de los primeros robots con emociones fué COG, un humanoide con tamaño y forma humana, conectado al mundo y a la gente que lo percibe humano. Cog fué programado para pensar y aprender (como lo hace un niño), cosas nuevas percibidas mediante sus conexiones sensori-motoras con capacidad de reacción al medio ambiente. Cog que cuenta con micrófonos, reconocimiento básico del habla y voz artificial, es capáz de ubicar y nombrar objetos que nunca vió antes. En el MIT, se ha creado tambien a KISMET, un robot con redoblada interacción social (contacto visual, lectura emocional mediante interpretación de voces). Si Kismet está cansado, sus ojos se inclinan hacia abajo, si contento se sienta erguido y sonríe.

La gente percibe a estos robots como vivos, a pesar de darse cuenta que no lo están. Kismet posiciona y reposiciona ojos, labios, cejas (expresiones automáticas, inconscientes, universalmente comprendidas). Su creadora Cynthia Bréazel, asegura que Kismet habla proto-conversaciones. Otro robot sociable es MERTZ, premunido de cámaras detrás de sus ojos, cabeza de metal, cuello flexible, voz infantil, ojos como pelotas, programado para detectar caras y recrear gestos emotivos, similares a los humanos). Mertz está programado para aprender al modo de los humanos, percibiendo sensaciones a través de su cuerpo, asociado al feedback condicionado por su propia conducta. Mertz aprende nuevas palabras y se reconoce en un espejo. Lo que se intenta en el MIT, es desarrollar robots con verdadera inteligencia, emociones y autonomia. Un paso inicial en ese sentido es que: a) sean capaces de percibir el medio ambiente y responder (estar ubicados) y b) disponer de un cuerpo fisico con el cual experimentar el mundo. Rodney Brooks (52, Flesh and Machines), es pionero en este tipo de robots.

II) Según Brooks, su contribución al mundo de los robots y la AI, ha sido explicar con precisión que primero es la percepción y después la acción. Hasta 1980, se asumia que el razonamiento abstracto, era la forma mas alta de inteligencia, que los programadores trataban de imitar (jugar ajedrez, resolver problemas matemáticos). Siguiendo los lineamientos del matematico aleman Gottlob Fregue, se continuaba con las aproximaciones simbolicas tendientes a crear maquinas inteligentes segun los criterios de Alan Turing. Antes de Brooks, los robots contaban con una zona robotica centralizada, scaneaban su localización, contaban con un modelo en 3D del terreno que hollaban y un plan para discurrir por el. Brooks por el contrario, ansiaba construir una AI, que hiciera las cosas mas simples: distinguir una copa de una silla, caminar en 2 piernas, ir del dormitorio al baño, actos dificiles de escribir en códigos de computadora, porque no requerian una cadena explicita de razonamientos. Los robots de Brooks, tienen programados sus cuerpos para recolectar datos (ven, tocan, se balancean empleando sensores mecanicos : video, camaras y giroscopios). En Flesh y Machines, Brooks, escribe :No cognición, solo percepción y acción. LEONARDO, un robot de última generación, es capáz de discriminar entre 2 clases de objetos diferentes, presumiéndose sea capáz en el futuro de desarrollar empatia, colaboración y ligazones sociales. Asimismo, es capaz de elaborar nuevas versiones de las instrucciones originales, además de colectar y clasificar los datos de modo creativo. Finalmente se trabaja en el autoreconocimiento de los robots, valiéndose de una cámara ubicada detrás de los ojos del robot, asignando un score a su imagen propia, otra para otro y cero para ninguno. Por lo que respecta a la conciencia robotica, Daniel Dennett, filosofo de la Universidad Tufts dice que es posible construir un robot con por lo menos la habilidad para estar consciente de su estado interno.

III) Se intuye que en los próximos años, la evolución robótica caminara inexorablemente hacia el desarrollo de máquinas autónomas (Leer: Cerebros humanos y ordenadores.V.Mechan), muchas de las cuales entrarán en nuestras vidas (chips cerebrales conectados a Internet). En los últimos años, algunos neurocientificos han empezado a afirmar que el cerebro es una computadora y los pensamientos el software. Cuando nuestros robots mejoren mas alla de nuestras limitaciones corrientes aceptaremos que somos maquinas y que el alma es una propiedad emergente multimedia, desarrollada a partir del necesario autoreconocimiento corporal.

1 comment:

Anonymous said...

Gracias por la traducción :)