THINKING MACHINES
THINKING MACHINES: FIRST GENERATION
It was thought that building a similar or greater entity than human brain was impossible. But advances in
science and technology in this direction are promising. Within 30 years we will
certainly have the first prototype of the positronic brain predicted by I. Asimov. Although there are several avenues to
advance toward this goal, the truth is that we sense that the culmination of
this achievement will be a mixture of advances in artificial intelligence
(AI) and experiments in neurobiological sciences: a) European Human Brain
Project (HBP), which attempts to reproduce technologically the characteristics
of the human brain and build virtual robots controlled by brain models. b)
Brain Activity Map (BAM), which attempts to map
the brain to understand brain
function deciphering the neural code
that creates our perceptions and experiences c) Human Connectome project that
sheds light on the construction of memory, deletion and creation of new neural networks, etc. Perhaps unwillingly,
the fast progress and improvement of the Internet induced by the urgent need to
provide accurate, fast, fluid and intuitive data to user information has created d) Deep Learning
(DL), with the help of pioneers like: Yoshua Bengio (University Montreal /
Canada). Yann LeCun (U. of NY), Geoffrey Hintonis (Google), Jeff Dean (Google
Brain), etc. Although currently DL, makes instant translations of languages and
recognized visual and auditory images, it does just taking advantage of
previously entered data (labeled data),
categorized by real people, who after teaching machines to recognize how an object looks, these simply recall
it, at the request of the user. DL pioneers are now trying to eliminate this
step, making the machines to employ unlabeled
data (not provided by humans), making hidden pictures, audios, phrases and
emotions completed by computers -independently- without providing machines previous
information. Combinations of labeled
and unlabeled data embedded in
artificial neural networks, are currently employed by Google and Baidu, with
marked success. Bengio models teach the machine to capture statistics from unlabeled data structures, using previous
data to create new images, arbitrarily answers questions about realities hidden
variables and assumed facts based on previously observed facts. AI of the 80s was
deficient because computers were built step by step with explanations
inserted through reasoning. Unlabeled data allow the machines to take actions to
address new situations,
positioning a new generation of thinking
machines. DL pioneers say that problems of development of unlabeled data
algorithms (smart and functional, generated by machines without human
intervention) are resolved. Bengio says that these algorithms give sense to all data types that we see, training machines
to understand the whole world around us.
PRIMERA
GENERACIÓN DE MAQUINAS PENSANTES
Se pensaba
que construir un cerebro similar o
superior al humano era tarea imposible.
Empero los avances en ciencia y tecnología en esa dirección, son prometedores. Dentro de 30 años tendremos con
seguridad el primer prototipo de cerebro positrónico pronosticado
por I. Asimov. Aunque se avanza hacia esa
meta por varias avenidas, lo cierto es
que se intuye que la culminación de este logro será producto de una mezcla de
avances en inteligencia artificial (IA)y lo extraído de experimentos en ciencias neurobiológicas :a) Proyecto
europeo Human Brain Project (HBP), que
intenta reproducir tecnológicamente las características
del cerebro
humano, transformar modelos cerebrales en hardware
y construir robots virtuales controlados por modelos cerebrales, b) Brain Activity Map (BAM), que intenta mapear
biológicamente las funciones cerebrales para
comprender el funcionamiento cerebral, descifrando el código neural que origina
nuestras percepciones y experiencias c) el proyecto Conectoma
Humano que da luces sobre la
construcción de la memoria, eliminación y creación de nuevas redes neuronales, etc.
Sin desearlo quizás, el raudo avance y perfeccionamiento del
internet inducido por la impostergable
necesidad de proporcionar información certera,
veloz, fluida e intuitiva a los usuarios
ha creado d) Deep Learning (DL), de la mano de pioneros como :Yoshua Bengio (Universidad de Montreal/Canada).
Yann
LeCun (U. de NY), Geoffrey Hintonis (Google), Jeff Dean (Google Brain),etc. Aunque de
momento DL, realiza traducciones instantáneas de idiomas, reconoce
imágenes visuales y auditivas, lo hace valiéndose solo de datos introducidos
previamente (labeled data), categorizadas
por personas reales, quienes tras
enseñarle a las computadoras a
reconocer como luce un objeto, estas simplemente la recuerdan, a petición del usuario. Los pioneros de DL intentan ahora eliminar este paso, haciendo que las maquinas
empleen unlabeled data (datos no proporcionados por humanos), logrando que fracciones
ocultas de imágenes, audios, frases y hasta emociones sean completadas
por las computadoras - independientemente- sin necesidad de proporcionarles información previa. Combinaciones de labeled
y unlabeled data insertas en redes
neuronales artificiales, son empleadas
de momento por Google y Baidu, con
marcado éxito. Los modelos de Bengio enseñan a la maquina a capturar
estructuras estadísticas de unlabeled
data, con ayuda de las cuales la computadora
reconoce caras, crea nuevas imágenes, responde
arbitrariamente a preguntas sobre
variables y supone realidades ocultas en
base a lo observado previamente. La IA, de
los años 80 es deficiente porque las maquinas fueron construidas con
explicaciones paso a paso de lo insertado mediante razonamiento. El empleo
de unlabeled data permitirá tomar acciones ante nuevas situaciones, posicionando
a una nueva generación de máquinas
pensantes.
Los pioneros de DL aseguran que los problemas
del desarrollo de algoritmos tipo unlabeled data (inteligentes
y funcionales, generados por maquinas
sin intervención humana), están resueltos. Para Bengio estos algoritmos dan sentido a todos los tipos de datos que vemos, entrenando a las maquinas a comprender la totalidad del mundo
que nos rodea.
Labels: AI., deep learning. thinking machines, Labeled and unlabeled data
0 Comments:
Post a Comment
<< Home