Support independent publishing: buy this book on Lulu.

Monday, January 25, 2016



It was thought that building a similar or greater entity than human brain was impossible. But advances in science and technology in this direction are promising. Within 30 years we will certainly have the first prototype of the positronic brain predicted by I. Asimov. Although there are several avenues to advance toward this goal, the truth is that we sense that the culmination of this achievement will be   a mixture of advances in artificial intelligence (AI) and experiments in neurobiological sciences: a) European Human Brain Project (HBP), which attempts to reproduce technologically the characteristics of the human brain and build virtual robots controlled by brain models. b) Brain Activity Map (BAM), which attempts to map  the  brain to understand brain function  deciphering the neural code that creates our perceptions and experiences c) Human Connectome project that sheds light on the construction of memory, deletion and creation of  new neural networks, etc. Perhaps unwillingly, the fast progress and improvement of the Internet induced by the urgent need to provide accurate, fast, fluid and intuitive data to  user information has created d) Deep Learning (DL), with the help of pioneers like: Yoshua Bengio (University Montreal / Canada). Yann LeCun (U. of NY), Geoffrey Hintonis (Google), Jeff Dean (Google Brain), etc. Although currently DL, makes instant translations of languages and recognized visual and auditory images, it does just taking advantage of previously entered data (labeled data), categorized by real people, who after teaching machines to recognize how  an object looks, these simply   recall it, at the request of the user. DL pioneers are now trying to eliminate this step, making the machines to employ unlabeled data (not provided by humans), making hidden pictures, audios, phrases and emotions completed by computers -independently-  without providing machines previous information. Combinations of labeled and unlabeled data embedded in artificial neural networks, are currently employed by Google and Baidu, with marked success. Bengio models teach the machine to capture statistics from unlabeled data structures, using previous data to create new images, arbitrarily answers questions about realities hidden variables and assumed facts based on previously observed facts. AI of the 80s was deficient because computers   were built step by step with explanations inserted through reasoning. Unlabeled data allow the machines to take actions to address new situations, positioning a new generation of thinking machines. DL pioneers say that problems of development of unlabeled data algorithms (smart and functional, generated by machines without human intervention) are resolved. Bengio says that these algorithms give  sense to  all data types that we see, training machines to understand the whole world around us.


Se pensaba que  construir  un cerebro similar   o superior al humano era tarea  imposible. Empero los avances en ciencia y tecnología en esa dirección,  son prometedores. Dentro de 30 años tendremos con seguridad  el primer prototipo de cerebro positrónico pronosticado por  I. Asimov. Aunque se avanza hacia esa meta  por varias avenidas, lo cierto es que se intuye que la culminación de este logro será producto de una mezcla de avances en inteligencia artificial (IA)y lo extraído de  experimentos en ciencias neurobiológicas :a) Proyecto europeo Human Brain Project (HBP), que intenta  reproducir tecnológicamente las características del cerebro humano, transformar  modelos cerebrales en  hardware y construir robots virtuales controlados por modelos cerebrales, b)  Brain Activity Map (BAM), que intenta mapear biológicamente las  funciones cerebrales para  comprender el funcionamiento  cerebral, descifrando el código neural que origina nuestras percepciones y experiencias  c) el proyecto Conectoma Humano que  da luces sobre la construcción de la memoria, eliminación y creación de nuevas redes neuronales, etc.  Sin desearlo quizás,  el raudo avance y perfeccionamiento del internet   inducido por la impostergable necesidad de proporcionar  información certera, veloz, fluida e intuitiva a  los  usuarios ha  creado  d) Deep Learning (DL), de la mano de  pioneros como :Yoshua Bengio (Universidad de  Montreal/Canada).   Yann LeCun (U. de NY),  Geoffrey  Hintonis (Google), Jeff Dean (Google Brain),etc. Aunque de momento DL,  realiza  traducciones instantáneas de idiomas, reconoce  imágenes  visuales y auditivas,  lo hace valiéndose solo de datos introducidos previamente (labeled data), categorizadas por personas reales, quienes  tras enseñarle a  las computadoras   a reconocer como  luce un  objeto, estas  simplemente la recuerdan,  a petición del usuario. Los  pioneros de DL intentan ahora  eliminar este paso, haciendo que las maquinas empleen    unlabeled  data (datos no proporcionados  por humanos), logrando que  fracciones  ocultas de imágenes, audios, frases y hasta  emociones  sean completadas por las computadoras -   independientemente-  sin necesidad de  proporcionarles información  previa. Combinaciones de  labeled y  unlabeled data insertas en redes neuronales artificiales, son  empleadas de momento por  Google y Baidu, con marcado éxito. Los modelos de Bengio enseñan a la maquina a capturar estructuras estadísticas de unlabeled data,   con ayuda de las cuales  la computadora    reconoce  caras, crea nuevas imágenes, responde arbitrariamente  a preguntas sobre variables y  supone realidades ocultas en base a lo observado previamente.  La  IA,  de los años  80 es deficiente  porque las maquinas fueron construidas con explicaciones paso a paso de lo insertado mediante razonamiento.  El empleo  de unlabeled data  permitirá tomar  acciones ante nuevas situaciones, posicionando a una  nueva  generación de  máquinas pensantes. Los pioneros de DL  aseguran que los problemas del   desarrollo de algoritmos tipo unlabeled data (inteligentes y funcionales, generados por  maquinas sin intervención humana), están resueltos.   Para  Bengio estos algoritmos dan  sentido a todos los tipos de  datos que vemos,  entrenando a las  maquinas a comprender la totalidad del mundo que nos rodea.  

Labels: , ,

Tuesday, January 19, 2016


Imagine a spaceship returning from Mars; with 4 human beings aboard contaminated by an extremophile bacteria (get used to live in a bleak Martian landscape). Soon, suits, boots and contaminated hands of the crew, spread the alien disease person-to-person, within residents of an overcrowded Central American port, with poor health infrastructure, triggering an epidemic of global proportions. I) Although this report is a fiction, the potential threat is real, especially if we consider the recent epidemic of Ebola (2 years duration, thousands of infected people, 11,000 human beings dead, diverted resources from other health issues: child-maternal programs,  chances of re-emergence of the virus). Ebola epidemic, showed that WHO is not prepared to lead the fight against a health epidemic worldwide and that it is time to perform worldwide simulations to combat such epidemics. We know several prior deadly epidemics: smallpox that decimated several pre-Hispanic Latin American populations, European epidemic of cholera and lately the caused by Ebola virus and others. II) To combat these epidemics is necessary to prepare vaccines and develop fast clinical trials in the heart of the epidemic itself and minimize bureaucratic obstacles so epidemics do not exceed health efforts. III) The global spread of these epidemics is now possible by an increased number of cities with high population density, increased urbanization and connectivity that have changed the dynamics of this and other infectious diseases. And, as until today is not known what wild animals harbor the Ebola virus, it is difficult to know when the next outbreak will occur. IV) The Ebola epidemic showed that sanitary conditions in many emerging countries continued to be poor. Most governments and WHO itself are not equipped to curb such public health crisis. WHO   cautiously says that this type of virus can reemerge even when any country was before declared free from these viruses. V) Local and international charitable, religious and non-governmental groups (Doctors without Borders), have helped more than WHO. Lessons from the fight against Ebola: certain myths like: incurability of Ebola, allowing its dissemination, have been banished. Finally:  local communities should be actively involved in combating these epidemics.

Imaginemos el retorno de una nave espacial procedente de Marte, con 4 humanos  a bordo contaminados por una bacteria extremofila (habitúe de un paraje inhóspito marciano). Pronto, trajes, botas y  manos contaminadas de los tripulantes, propagan  vía persona-persona, la enfermedad extraterrestre en residentes de un puerto centroamericano  superpoblado, con infraestructura sanitaria deficiente, desencadenando una epidemia de proporciones  mundiales.  I) Aunque lo relatado es una  ficción, la potencial amenaza es real.  La reciente epidémia del Ebola (2 años de duración, miles de infectados, 11 000 muertos, desvío de recursos de otras instancias sanitarias: programas madre-niño, posibilidades de reemergencia del virus), revelan   que la OMS no está preparada para liderar la lucha contra  una epidemia sanitaria a escala mundial y que ya es tiempo de realizar simulacros a nivel mundial para combatir este tipo de epidemias. Sabemos de ciertas epidemias mortales previas: la viruela que diezmo a varias poblaciones prehispánicas  latinoamericanas, las  europeas del cólera y últimamente las ocasionadas por  el virus del  Ebola y otros. II) Para combatir estas epidemias se necesita  preparar vacunas y realizar ensayos clínicos rápidos en el corazón mismo de las epidemias y minimizar las trabas burocráticas  para que las epidemias no sobrepasen los esfuerzos sanitarios. III) La expansión  mundial de estas epidemias es posible ahora por el incremento del número de ciudades con alta densidad poblacional, mayor  urbanización y  conectividad,  que han cambiado  la dinámica, de esta y otras enfermedades infecciosas. Y, como aún no se  conoce que animales salvajes hospedan al Ebola, es difícil saber cuándo ocurrirá la siguiente epidemia. IV) Esta epidemia revela que las condiciones sanitarias de muchos países emergentes continuas siendo  deficientes. La mayoría de gobiernos y la misma OMS  no  están equipadas para frenar crisis de salud pública como estas.  Cautamente la OMS afirma que este tipo de virus puede reemerger aun en países declarados libres de estas virosis.  V) Grupos no-gubernamentales locales e internacionales, de caridad y religiosos,  médicos sin fronteras, etc., han ayudado más que la  OMS.  Lecciones de  la lucha contra el Ebola: se han desterrado  ciertos mitos: imposibilidad de curar el Ebola (permitiendo su diseminación) y que las comunidades locales deben participar activamente en el combate de  estas epidemias.

Labels: , ,

Sunday, January 10, 2016


Some Greek thinkers, Plato (427-347 C: La Republica, Dialogues), Aristotle (384-322 BC: spontaneous generation and contradiction principles, notion of category), Archimedes (287-212 C: hydrostatic, principle of the lever) and others theorized (reasoned), regarding the origin of life, the universe, the solar system and others. Pure reasoning to understand the reality reap successes and great failures: (geocentric theory of the solar system, the origin of life by spontaneous generation), forcing many to question  reasoned methods. To discover the secrets of nature, were needed more coherent and consistent methods. 1500 years after, appeared the   experimental science in the hands of Newton, who said that scientific knowledge could only be obtained by empirical observations. In the last 300 years more accurate experiments has extended our conception of nature. Although not entirely, now we known much more, having had  the  science world  its own Pope: Karl Popper (1902-1994 BC), intellectual icon, famous for establishing guidelines that until recently delimited the scientific (falsifiable: ability to decide whether a theory can be accepted or not, according to data from actual experience), from non- scientific facts. Popperians argue  until today that any theory must be demonstrated experimentally (be falsifiable) in order to be scientific. In the past 85 years, attempts to determine the position of electrons and other elementary particles  forced to  many  to resort to a probabilistic physics (quantum physics), questioning  many rigid scientific principles. The mathematical probabilism (Bayesianism), proved to be as equal or more effective than traditional mathematics especially to calculate  some natural adaptative  changing  phenomena (space-time relativity and others), making us to  understand that  rigid interpretation of  experiments will not always agree with reality. The Bayesianism has imposed gradually, being   now a valid method for screening nature. A failed result obtained by Bayesian methods can give successful results in other conditions. Principles that led to validate certain assumptions (string and multiverse theories, cosmic inflation), inducing to some sientists    to break away from  experiments, at the point  that some even said that falsificationism no more reigns in philosophy . The European philosopher Richard Dawid (2013: String Theory and the Scientific Method), defender of string theory holds that this hypothesis is falsifiable, and therefore scientific. Dawid, postulates three non-empirical arguments supporting String Theory:  1-Existence of a unique and consistent theory 2-Derived from a previously falsifiable theory : Standard Model. 3-Able to explain other theoretical problems (entropy of black holes).  Dawid adds that  string theory have replaced the elementary particles of the Standard Model for  thin infinitesimal vibrating strings,   that at ultramicroscopic level would  be the ultimate  thing,  while at another level are visible membranes and at great scales would be   large celestial bodies. One of the infinitesimal vibrating strings would be the graviton, reconciling the quantum world with the  macroscopic world.

Algunos sabios  griegos: Platón (427-347 a C: La Republica, Diálogos), Aristóteles (384-322  a.C:  teoría de la generación espontánea,  principio de no contradicción,  nociones de categoría), Arquímedes (287-212 a C:hidrostática, principio de la palanca) y otros  teorizaban (razonaban), respecto al origen de la vida, el cosmos, el sistema solar y otros. El  empleo del razonamiento puro para entender la realidad  cosecho éxitos y también  grandes  fracasos:  (Teoría geocéntrica  del sistema solar,  origen de la vida por generación  espontánea), obligando a muchos a cuestionar los métodos  razonados. Para descubrir los secretos de la naturaleza, eran    necesarios  métodos más coherentes y congruentes. 1500 años después haría su aparición  la ciencia experimental de la mano de Newton, quien afirmaba que  el  conocimiento científico solo podía ser obtenido   mediante  observaciones  empíricas. En los últimos 300 años los experimentos científicos han hecho más certera  nuestra concepción de  la  naturaleza. Aunque no totalmente, hoy se conoce  muchísimo más, habiendo llegado   la ciencia hasta tener su propio Papa: Karl Popper (1902-1994 a.d.C),  icono intelectual,  famoso por establecer pautas que hasta hace poco delimitaban   lo científico (falseable : habilidad para decidir si una teoría puede ser   aceptada o no, según los datos de la  experiencia actual), de lo no científico. Los popperianos arguyen hasta hoy, que toda teoría debe  ser demostrada  experimentalmente (ser  falseable).  En los últimos 85 años, los intentos por determinar la posición de electrones y otras partículas elementales  se vieron  obligados  a recurrir a una bizarra física  probabilística  (física cuántica), cuestionadora de  los rígidos principios científicos y popperianos.  Las matemáticas probabilísticas (bayesianas), resultaron ser  tan o más efectivas que las matemáticas tradicionales especialmente para calcular fenómenos naturales  cambiantes –adaptativos- (relatividad del tiempo, el espacio y otros), haciéndonos entender que la interpretación rígida  de los  experimentos,  no siempre concordara  con la realidad. El  bayesianismo  ha ido imponiéndose poco a poco, hasta  ser  hoy un método valido para escrutar la naturaleza.  Un resultado fallido obtenido por métodos bayesianos puede dar resultados exitosos  en otras condiciones. Principios que  han inducido   a validar ciertas suposiciones  (teoría de las cuerdas, de los multiversos, inflación cósmica), con lo que ciertas   teorías han empezado a  desligarse de los experimentos,  llegando a decir a algunos que el   falsificacionismo  no reina más en la filosofía de la ciencia.  El filósofo europeo Richard Dawid (2013:  String Theory and the Scientific Method), defensor de la teoría de las cuerdas sostiene que esta hipótesis es falseable y por lo tanto científica.  Dawid, postula   3 argumentos no empíricos  que  sustentan  esta teoría:   1-Existencia de una versión  teórica  unica y consistente  2-Derivar  de una teoría previamente falseable: Modelo Standard. 3-Ser capaces de  explicar   otros problemas teóricos (entropía de agujeros negros).   Dawid agrega que en  la teoría de las cuerdas se han   reemplazado  las  partículas elementales del Modelo Standard por infinitesimales  y delgadas  cuerdas vibrantes. A nivel ultramicroscópico las cuerdas vibrantes serian lo  único visible, mientras que a otro nivel lo visible son  membranas  y a mayor  escala lo obio son los grandes  cuerpos celestiales. Una de las infinitesimales  cuerdas vibrantes  seria el gravitón,  reconciliando el mundo cuántico con el mundo macroscópico.    

Labels: , ,