Support independent publishing: buy this book on Lulu.

Saturday, February 16, 2019



In an updated paper about the current possibilities of creating a functional artificial brain similar to the human brain, the weaknesses and strengths of such efforts are exposed in Science. The analysis begins with the question: ¿Can  machines think?, self-answered by Alan Turing, in 1950, who alluded  to: a) A mathematical negative formulated by Kurt Gödel and Church, Kleene, Boater and Turing, referred to digital computers, which despite having an infinite capacity, such machines in front of certain things or questions would not respond or would do it wrongly. Penrose suggested (1980,1994), that certain human brain molecular structures could adopt a state of quantum superposition and entanglement (more so, if electrons transiting through human neural circuits do so in ionic forms), paving the way for the future use of artificial quantum computers in order to equal human brain performance. b) Returning to Turing, he closed his point of view   postulating by that time (1950), that for machines to start thinking like a human brain the important thing was to imitate the complex biological neural computational systems, having as a guide the human neural circuits, imitation that to the present time  has made possible the creation of neural circuits systems imitating the cerebral cortex (deep network), constructed with successive layers of elements similar to neurons connected by artificial synapses, producing speech recognitions, complex games, translation of texts, computer vision, classification and segmentation of objects, capture of images, where someone  try to produce a short verbal description of an image, answer visual questions and of human communication about the content of an image, or non-visual tasks: analyze humor and sarcasm, comprehension and intuitive aspects of social things, serve as assistants persons, in medical diagnosis, automatic car handling. Despite this, there are problems to be solved: I) To improve the adjustment of learning through synapses to produce desired output patterns, conditioned by training at the inputs. II) Achieve a learning with deep artificial neural networks that go beyond simple memorization producing logical outputs, not necessarily programmed during the learning process. III) In this perspective, highlights the incorporation into AI (artificial intelligence), associated to deep neural artificial networks of the called: learning reinforcement: LR (mapping of situations or actions to maximize the signal of reward or reinforcement, not to take certain actions, but to discover through trial, error and reward the best option in order to modify the behavior). LR models combined with AI algorithms, are currently applied to video games, Go and Chess, reaching in this last level of world champions with only 4 hours of training. IV) However, the most notable differences between the biological circuit and artificial neural networks systems are those based on structure: biological neurons are complex and diverse in morphology, physiology and neurochemistry. The entrances to excitatory pyramidal neurons are distributed over very complex dendritic branches. Cortical inhibitory neurons exhibit different functions, none of these heterogeneities being included in artificial neural networks.  Biological cerebral cortical circuits are more complex than models of artificial neural networks, including lateral connectivity between neurons, as well as local connections, more extensive connections and connections up and down in the hierarchical cortical regions. V) It is expected that artificial neural networks will promote a real human understanding, in order to address broad aspects of cognition and general artificial intelligence (IGA). Meanwhile, these techniques continue to be perfected under the guidance of neuroscience. VI) There are other functional differences between biological and artificial systems: A) AI's current artificial models rest heavily on the empirical side using simple and uniform artificial neural network structures employing large sets of training data for learning. Biological systems carry out tasks with limited training, learning about pre-existing network structures already encoded in circuits before learning, with which insects, fish and pigeons, perform complex navigation tasks using part of an elaborate set of innate mechanisms with sophisticated computational capabilities. B) Therefore, the development of complex cognitive and perceptual activities in children with little training, in the first months of their lives is possible, recognizing they complex instruments such as their hands, following people with their gazes  and distinguish visually if the characteristics of certain animals are dangerous or not, while developing an incipient understanding of physical or social interactions, through unsupervised learning, given the presence of innate cognitive systems generated by evolution, which facilitated the acquisition of significant concepts and skills. Recent models of visual learning in childhood, show that significant and complex concepts are not innate or learned by the child, but are proto-concepts that provide signals of internal teaching guiding the learning system along pathways that lead to a progressive acquisition and organization of complex concepts with little or no explicit training. Sometimes, a particular pattern of moving images provides an internal signal for the recognition of their hands that helps them to manipulate objects guiding the learning system in the direction of their gaze. Innate structures implemented in cortical regions with specified connectivity warn initially of specific input errors. Perhaps in the future, these pre-existing structures could be coupled to artificial neural models to simulate human learning. Imagine computational learning methods starting from proto-concepts with structures inserted in humans or robots that learn to quickly become familiar with unknown environments in an efficient and flexible way, very different from the current learning procedures. Summing up: I) Following Shimon Ullman, we believe that each machine or robot of the future that must possess a human-like brain should it be  virginally inserted a basic code -not to obey commands- but to complete what it should be (or do), before each new situation or environment, using analogies, logic or emerging thinking solutions. II) Today's hyper-super-computers have no future for this purpose because: a') They use artificial neuron-artificial neuron transmissions, using electrons that circulate through metallic means. a'') Human neurons send messages to other neurons using ions that are more adapted to quantum models (entanglements and others), allowing almost simultaneous transmissions in all possible planes, including feedback-type ones. Although current computers transmit information in several planes, they lack artificial-totalizing organizer neurons, which to be functional should be spherical or pyramidal. b') Although the human brain allows the circulation of 20% of total human body blood at every moment, it does not get very hot, because the membranes of its neurons are covered by a fat content resistor that allows them to capture electrons from the environment and adapt them to ions that allow the transmission of the message to millions of other neurons . b'') You have to copy this resistor model and include it in a quantum computer. c') The problem of reduced space of the artificial brain is solved in quantum computers using artificial neurons with spherical or pyramidal shapes capable (or almost) of dealing with thousands or millions of other artificial neurons.

Labels: , , , , ,

Sunday, February 10, 2019



1) Identify problems, choose the main problem (the one that explains the rest). Develop a hypothesis and test it. 2) Analyze the results, assessing the evidence. 3) New and improved hypothesis. Questions and cross-questions to the maximum. Incorporation of contributions and ideas from other scientific areas. New hypothesis and so on, again and again. Let's see 2 cases:

I) First case. Recognized as an interstellar object ("Oumuamua"), by the International Astronomical Union, this entity discovered in October 2017, supposedly natural, has been questioned by the astronomer Abraham Loeb (Harvard University, Astronomy Deparment), given the pretty bizarre features of this, to be an asteroid or a comet of our solar system : a) when passing close to the earth the entity rotated on itself  every 8 hours b) it has a brightness that changes by a factor of 10 c) It  is 5 times longer than wide d) It does not emit much heat e) It  is a good reflector of light, but poorly conservative of it f) It  does not absorb light well g) not much is known about its surface because it has not been possible to take a clear close image of its surface h) The entity  follows a path not governed by the sun's gravity  j) The entity  exhibits an extra force that drives it. Such kind of an object with unusual characteristics and limited data,  has forced Loeb to propose several alternatives for it,   instead of accepting it exclusively as a natural entity, once again dividing an elite of world scientists: a minority that argues that possessing  such unusual features, one possibility  -within several- is that it is an extraterrestrial probe launched by an intelligent civilization, and another represented by scientists not so open minded to ensure that it is a natural object and nothing more. An interdict on the very frontier of science, whose arguments as always bring us back to Plato and dialectics and whose final solution will once again be determined by the evidence. A phenomenon like this with such unusual characteristics can be anything, until it is proven otherwise. 

From quantamagazine

II) The other case corresponds to the enigmatic subject of matter and dark energy and black holes, conforming 95% of our visible universe, for which the theoretical astrophysics of Yale University: Priyamvada Natarajan, has proposed to study them coherently, using various methods including the mapping of them. The central theoretical idea of the ​​Indian astrophysics is to suppose that supermassive black holes are a fundamental part of the structure, the energetic area and the evolution of our universe, due to being located in the center of galaxies, determining the form and other characteristics of the galaxies. A very difficult subject to study located on the same frontier of science. How to demonstrate this theory if the mentioned phenomena are characterized by their invisibility. To face this challenge, the Natarajan, argues to have the stamina, mental clarity and above all know what she is   doing aided by mathematical approaches, quite necessary in this case. 1) She says that one of the first things to do is to understand why all the current physics collapses when we are close to a black hole? auto answering she says:” you need a lot of mathematical support”. 2) She  also argues that there is a certain relationship or interweaving between the mass of the stars in the central part of the galaxies and the central area of ​​the black holes that host them, needing here approximations of theoretical physics, to know how to join the framework  and early growths of these phenomena, simultaneously. 3) Regarding the mapping, the Natarajan argues that the Hubble telescope has provided incredible images to map and analyze dark matter, offering indirect images of this matter when estimating the extension and curvature of the light emitted by different distant galaxies. Adding: "But, not everything depends on the Hubble images. My maps need mathematical orientations especially when small clumps of dark matter are identified, which correlated perfectly with the cold, non-interactive dark matter". In images taken by the Hubble telescope of the cluster galaxy: MACS0416 and of the same image with superimposed blue distribution of dark matter, inferred from the distortion of light from distant galaxies (the background ones), it is observed how supermassive black holes could have initially formed at the center of galaxies. The scientist hopes that with larger telescopes it will be possible to identify bright quasars (luminous galactic centers), supplied by billions of solar masses and black holes, when the universe was only 10% of its current age. Part of the above is supported by the Natarajan in 2 articles (2005/2006), in which when lecturing on "massive seeds",  she raised the extraordinary idea that it is possible to bypass the formation of a star forming instead  seeds  of massive black holes, of approximately 10,000 to 1 million times the mass of the sun, able to explain the emergence of quasars in very early times of our universe. 4) On the spiral forms of galaxies, Natarajan argues:In the same way that when you pull the plug of the bathtub, the water forms a vortex, something similar happens in the early universe with the formation of gas discs, quickly positioning the gas siphon in the center". This direct collapse of "seeds of black holes" is part of a larger cosmic evolutionary history, subsequent to the generation of a population of black holes: how they form, evolve, turn into quasars, go out and shine until today. 5) The idea of ​​the direct collapse of supermassive black holes (quasars of early times of the universe, fed by supermassive black holes), is today, a leading theory in the formation of the early universe, consensuated by successive small pieces of evidence. To support the above, in a computer simulation, the Natarajan successfully programmed the direct collapse of black holes: populated the early universe and propagated the growth of these galaxies until today. 6) The noted Hindu scientist, hopes that the James Webb Space telescope to be launched in 2021, observe the space deeply and backward in time, paying attention to the formation of galaxies of the early universe, facts that will test the idea of early collapse of the Natarajan. The James Webb telescope is able to see images of dark matter more accurately. Premonitorily, the Natarajan affirms that if the new telescope identifies quasars in the first epochs of the universe, these will have to be black holes with direct collapse.


1) Identificar problemas. Escoger el problema principal (el que explique al   resto de problemas). Elaborar una hipótesis y someterla a prueba. 2) Analizar los resultados, valorando las evidencias. 3) Nueva hipótesis, mejorada. Preguntas y repreguntas al máximo. Incorporación de aportes e ideas de otras áreas científicas. Nueva hipótesis y así, una y otra vez.  Veamos 2 casos:

I) Reconocido como un objeto interestelar (“Oumuamua”), por la International Astronomical Union, este ente descubierto en octubre del 2017, supuestamente natural, ha sido  puesto en entredicho por el astrónomo Abraham Loeb (Harvard University, Astronomy Deparment), dadas   las  características bastante bizarras de  este,  para ser un asteroide o un cometa de nuestro  sistema solar,  el mismo  que : a) al pasar   cerca de la tierra rotaba sobre si cada 8 horas b) que posee una brillantez que cambia por un factor de 10 c)  que es 5 veces más largo que  ancho d) que no emite mucho calor e) que es un buen reflector de la luz, pero mal conservador de ella f) que no absorbe  bien la luz g) del que no se conoce  mucho sobre su  superficie porque no se ha podido   tomarle una imagen cercana nítida h) que sigue un trayecto no gobernado por la gravedad del sol i) que no es influenciado por la gravedad del sol   j)  que exhibe una fuerza extra que lo impulsa. Un objeto con características desusuales y  con  datos limitados,  que ha obligado a  Loeb a  proponer  para este objeto  varias alternativas, en vez de aceptarlo exclusivamente como un ente natural,  dividiendo una vez más a una elite de   científicos mundiales: una minoría que arguye  que al poseer  características tan  desusuales, una posibilidad dentro de varias, es que  se trate de una  sonda extraterrestre lanzada por una civilización inteligente y,  otra representada por científicos de  mente no tan abierta que  aseguran que se trata de un objeto natural y nada más. Un entredicho en la misma frontera de la ciencia, cuyos argumentos como siempre nos retrotraen a Platón y a los dialecticos y cuya solución final una vez más será determinada por las evidencias. Un fenómeno como este con características tan desusuales puede ser cualquier cosa, hasta que no se demuestre lo contrario, claro. II) El otro caso corresponde al enigmático asunto de la materia y energía oscura y los agujeros negros, conformantes del 95% de nuestro universo visible, para los cuales la astrofísica teórica de la Universidad de Yale:  Priyamvada Natarajan, se ha propuesto   estudiarlos coherentemente, empleando diversos métodos incluyendo el mapeo de los mismos.  La idea teórica central de la astrofísica hindú es suponer que agujeros negros supermasivos son parte fundamental de la estructura, el área energética y la evolución de nuestro universo, en razón de estar   ubicados en el centro de las galaxias, determinando la forma y otras características de las galaxias.  Un tema bastante difícil de estudiar ubicado en la misma frontera de la ciencia. Como demostrar esta teoría si los fenómenos mencionados se caracterizan por su invisibilidad. Para afrontar este desafío, la Natarajan, arguye disponer de la estamina, la claridad mental y sobre todo saber lo que está haciendo ayudada por aproximaciones matemáticas bastante   necesarias en este caso. 1) Dice ella, que una de las primeras cosas por hacer es entender ¿porque toda la física actual colapsa cuando estamos cerca de un agujero negro?, auto respondiéndose que, para responder a esta pregunta, necesita mucho soporte matemático. 2) Arguye, asimismo, que existe cierta relación o entrelazamiento, entre la masa de las estrellas en la parte central de las galaxias y el área central de los agujeros negros que las hospedan, necesitando aquí aproximaciones de física teórica, para saber cómo   unir estructural y tempranamente los crecimientos de estos fenómenos, en forma simultánea. 3) Respecto al mapeo, la Natarajan arguye que el telescopio Hubble, ha proporcionado imágenes increíbles para mapear y analizar la materia oscura, ofreciendo imágenes indirectas de esta materia al estimar la extensión y curvatura de la luz emitida por diferentes galaxias lejanas. Agregando: “No todo depende de las imágenes del Hubble, mis mapas necesitan orientaciones matemáticas especialmente cuando se identifican grupos pequeños de materia oscura, correlacionados a la perfección con la materia oscura fría, de tipo no interactivo”. En imágenes tomadas por el telescopio Hubble de la galaxia en racimo: MACS0416 y de la misma imagen con distribución en azul superpuesta de la materia oscura, inferida a partir de la distorsión de la luz procedente de galaxias distantes (las de fondo), se observa como podrían haberse formado inicialmente agujeros negros supermasivos en el centro de las galaxias. La científica espera que con telescopios más grandes se logren identificar cuásares brillantes (centros galácticos luminosos), abastecidos por billones de masas solares y agujeros negros, cuando el universo tenía apenas un   10 % de su edad actual.  Parte de lo anterior es sustentado por la Natarajan en 2 artículos (2005/2006), en los que al disertar sobre “semillas masivas”, plantea la extraordinaria idea de que es posible  bypasear la formación de una estrella formando en su lugar  semillas de  agujeros negros masivos, de aproximadamente   10,000 a 1 millón de veces la masa del sol, capaces de explicar la emergencia de cuásares en épocas muy tempranas de nuestro universo. 4) Sobre las formas espirales de las galaxias, la Natarajan arguye:” Del mismo modo que cuando usted jala el tapón de la bañera, el agua forma un vórtice, algo similar sucede en el universo temprano con la formación de discos de gas, posicionándose rápidamente el sifón de gas en el centro”. Este   colapso directo de “semillas de agujeros negros” es parte de un historial evolutivo cósmico más grande, subsiguiente a la generación de una población de agujeros negros:  se forman, evolucionan, se tornan en cuásares, se apagan y brillan hasta hoy.  5) La idea del colapso directo de los agujeros negros supermasivos (cuásares de épocas tempranas del universo, alimentadas por agujeros negros supermasivos), es hoy, una teoría líder en la formación del universo temprano, consensuada por   sucesivos pequeños trozos de evidencia. Para sustentar lo anterior, en una simulación en computadora, la Natarajan programo el colapso directo de agujeros negros, pobló el universo temprano y propago el crecimiento de estas galaxias hasta hoy. 6)  La notable científica hindu, espera que el telescopio James Webb Space a ser lanzado el 2021, observe     el espacio profundamente y hacia atrás en el tiempo, prestando atención a la formación de galaxias del universo temprano, hechos que pondrán a prueba la idea del colapso   temprano de la Natarajan. El telescopio James Webb está capacitado para ver imágenes de la materia oscura con mayor precisión. Premonitoriamente, la Natarajan afirma que el nuevo telescopio identifica   cuásares en las primeras épocas del universo, estos tendrán que ser   agujeros negros con   colapso directo. 

Labels: , , , ,

Saturday, February 02, 2019



Some scientists believe that the final objectives of the development of Artificial Intelligence (A.I.) -and of robotic brains- never reach the tessitura, sophistication and creativity of human brains. Faced with this challenge, the continuous discoveries in A.I. and neuroscience contradict the previous, indicating that feelings, passions, ideas, memory and all abstract concepts are computable. Thus, in the mentioned fields, it is important to analyze several studies related to navigation and memory made in animals and humans’ brain, performed by notable scientists, some of them winners of the 2014 Nobel Prize in Medicine: John O Keefe (University College/London), May-Britt Moser and Edvard Moser/University of Oslo, Norway) and others. Moreover, Jeff Hawkins (Numenta/University of California), is clearly convinced that these new discoveries will soon be applied to the improvement of A.I., expecting to have in the near future robots with autonomous memory and navigation (to climb, to fly, to walk, to run), systems. We are talking about brain’s codes of network navigation (grid codes), to be implanted in robots, making them more flexible, creative, and powerful. The evidence related to internal brain’s grid codes sustain that these   codify abstract knowledge using spatial representations, similar to how physical spaces are mapped. According to Kim Stachenfeld (Deep Mind), memory and navigation have a physical base located in the hippocampus, being essential the grid codes for both. Grid-codes are a form of spatial brain representation, which helps to navigate through visual, sonic and other areas full of abstract concepts. In this regard, 2 types of cells have been discovered in the hippocampus: a) one related to two-dimensional (2D) space navigation and b) one related to memory. John O'Keefe discovered in rat brains: place cells (position cells/their visible discharges indicate their current specific position), which together create a total spatial map. By changing the experimental rats from place, the place cells perform re-mapping. The hippocampus remaps the area, creating and storing cognitive maps. For their part: May-Britt Moser and Edvard Moser, studied the entorhino cortex, the first to deteriorate (navigation and memory areas), in Alzheimer's disease. For Mosers the grid code is a kind of metric or coordinate system, useful for physical and abstract brain navigation, having been found in humans (using f-MRI), an hexadirectional signal, with properties emanated from grid codes, previously identified in physical navigation tasks. Jacob Bellmund (Max Planck Institute/Leipzig and Kavli Institute for Systems Neuroscience/Norway), believes that unlike place cells, grid cells do not represent particular locations, but a navigation system independent of the location (brain’s GPS). Each grid cell fire in regularly spaced positions forming a hexagonal pattern, of the same size, in which each hexagon has 6 equilateral triangles. Grid cell fire each time the subject reaches the vertex of any of these triangles. There are grid cells with larger or smaller hexagons and together they are able to map any special position of the environment and any particular location. Grid cells are responsible for the call: integration path. The grid network not only sends a lot, but different types of information. György Buzsaki (NY, University School of Medicine), says that the hexagonal system is a solution to represent any structured relationship, from word meaning maps to maps of future plans. In addition, the hippocampus contains place cells that sometimes behave as "time cells" activating in certain situations successive moments of time, rather than successive positions in space. When the rats remain in a constant place, the cells are activated in the hippocampus to trace their temporal progression -in this case- some neurons are activated in the first seconds and others shortly, thereafter, acting the time as a different dimension in this equation; evidence of a codified system that only represents time in the context of memories or experiences. On the other hand, scientists from Princeton University discovered another potential dimension: sound, which monitored brain activity in rats that pushed a lever to change the frequency of one tone to adapt it to another that they had previously heard. The most recent news regarding grid codes, argue that all physical and abstract knowledge can be plotted with these codes. Recently other cells have been identified that help  the grid system: 1) head direction cells that discharge when an animal points its head in a particular direction 2) speed cells that indicate the frequency at which the subjects move in the space 3) boundary cells that represent the location of objects or people on the walls or edges not only of the physical space but also on the edges of separate conceptual events mobilized in temporal sequences. It is known that the grid code is less stable in the elderly, with locations in these people not so efficient. It remains to be seen how grid cells work in flying bats that navigate in 3D. Sure, the future is challenging in this field.

Algunos científicos creen que los objetivos finales del desarrollo de la Inteligencia Artificial (A.I.) y -de los cerebros robóticos- nunca alcanzaran la tesitura, sofisticación y creatividad de los cerebros humanos. Frente a este desafío, los continuos descubrimientos   en A.I. y neurociencia contradicen lo anterior, indicando que   sentimientos, pasiones, ideas, la memoria y todo lo abstracto son procesos computables, robotizables. De modo que en los campos mencionados,   importa  analizar  y relacionar prospectivamente diversos estudios relacionados con la navegación y la memoria  cerebral animal y humana,   realizados  por notables científicos, algunos de ellos ganadores del Premio Nobel de Medicina 2014 : John O Keefe (University College/London), May-Britt Moser and Edvard Moser/Universidad de Oslo, Noruega)   y, otros. Es más, Jeff Hawkins (Numenta/University of California), tiene el claro convencimiento de que estos nuevos descubrimientos pronto serán aplicados al mejoramiento de la A.I. Estamos hablando de códigos de navegación en red (grid codes), cerebrales a ser implantados pronto en robots, tornándolos más flexibles, creativos, y poderosos al unificarse las funciones de memoria y navegación. Los estudios referidos avalan la eficiencia cerebral para codificar conocimientos abstractos empleando representaciones espaciales, de forma similar a como se mapean los   espacios físicos. Según      Kim Stachenfeld (Deep Mind), la memoria y la navegación tienen una base física localizada en el hipocampo, siendo los grid codes esenciales para ambas. Los    grid-codes son una forma de representación cerebral espacial, que ayuda a navegar por áreas visuales, sónicas   y otras plenas de conceptos   abstractos. Al respecto se han descubierto    en el hipocampo 2 tipos de células: a) una relacionada con la navegación espacial bidimensional (2D) y b) otra relacionada con la memoria.  John O’Keefe descubrió en cerebros de ratas: place cells (células de posición/descargas visibles indican su posición especifica actual), las que juntas crean un mapa espacial total. Al cambiar las ratas de experimentación de lugar, sus place cells realizan   re-mapeo. El hipocampo remapea el área, creando y almacenando mapas cognitivos.  Por su lado:  May-Britt Moser y Edvard Moser, estudiaron el córtex entorrino, el primero en deteriorarse (áreas de    navegación y   memoria), en la enfermedad de Alzheimer. Para los Mosers el código grid es una especie de sistema métrico o de coordenadas, útil para la navegación cerebral física y abstracta, habiéndose encontrado en monos: mezclas de    navegación activa del espacio visual y, en humanos (mediante f(MRI), una señal hexadirectional, con propiedades emanadas de   códigos grid, previamente identificados en tareas de navegación física. Jacob Bellmund (Max Planck Institute/Leipzig y The Kavli Institute for Systems Neuroscience/Norway), opina que a diferencia de las place cells, las grid cells no representan localizaciones particulares; sino un sistema de navegación independiente de la localización (GPS cerebral) Cada célula grid descarga en posiciones regularmente espaciadas formando un patrón hexagonal, del mismo tamaño, en el que cada hexágono tiene 6 triángulos equiláteros.  A medida que uno camina, una célula grid descarga cada vez que el sujeto   alcanza el vértice de cualquiera de estos triángulos.  Existen conjuntos de grid cells con hexágonos más grandes o pequeños y juntas son capaces de   mapear cualquier posición especial del medio ambiente y cualquier localización particular.  las células grid son las responsables de la llamada: vía de integración.    La red grid, no solo envía mucha, sino diferentes tipos de información. György Buzsaki (NY, University School of Medicine), dice que el sistema hexagonal es una solución para representar cualquier relación estructurada, desde mapas de significados de palabras hasta mapas de planes futuros. Además, el   hipocampo   contiene   place cells que a veces se comportan como “time cells” activándose en ciertas situaciones   indicando momentos sucesivos del tiempo, más que posiciones sucesivas en el espacio). Cuando las ratas permanecen en un lugar en forma constante, las células se activan en el hipocampo para trazar su progresión temporal: algunas neuronas se activan en los primeros segundos y otras poco después, actuando el tiempo como una dimensión diferente en esta ecuación; evidencia de un sistema codificado que únicamente representa al tiempo en el contexto de memorias o experiencias.  De otro lado, en la   Princeton University se descubrió otra dimensión potencial: el sonido, que monitoreaba la actividad cerebral en ratas que empujaban una palanca para cambiar la frecuencia de un tono para adecuarlo a otro   que ellas habían escuchado previamente. Las noticias más recientes respecto a los códigos grid, sostienen que todo el conocimiento físico y abstracto, puede ser ploteado con estos códigos.  Recientemente se han identificado otras células  que ayudan en el sistema grid:  1) las  células head direction   que descargan cuando un animal apunta su cabeza  en una dirección  particular 2) las  células speed que  que indican  la frecuencia a la cual se mueven los sujetos en el   espacio 3) las   células boundary que representan la  localización  de objetos o personas en   las paredes o bordes no solo del  espacio físico  sino también en los bordes de eventos conceptuales separados movilizándose en secuencias temporales.  Aunque faltan estudiar funciones adicionales de este sistema, se sabe que el código grid es menos estable en ancianos, con localizaciones en estas personas no tan eficientes.  Queda por ver como trabajarían las grid cells en murciélagos volando, que navegan en 3D.  

Labels: , , , ,

Friday, January 25, 2019



The Chinese geneticist: Jiankui He (University of Science and Technology of the South: SUSTech, Shenzhen, China), claims to have created the first two genetically modified twins, using the CRISPR/Cas9 technique, eliminating the CCR5 gene, making them immune to HIV, smallpox and cholera. The twins would have certain characteristics added by their parents' wishes (not necessarily those desired by the recipients). In China, the implantation of genetically modified babies, which alters their genomes and that of their descendants, creating a new line of humans, is not prohibited. It had to happen. The human being always seeks the forbidden (the hidden) and will continue to do so. There, lies the error by underestimating the risks, but also  the beauty  that such experiments entail. In the biological edition of living beings, we will discuss 3 futuristic fronts: 1) The illiterate stage of the genome edition was given from ancient times through crosses of animals and plants, until Mendel put it on an expectant scientific level. The improvement and massification of this proto-technique occured  with the appearance of genetically improved plants. With the emergence of the CRISPR/Cas9 technique, biological editing in general has become a children's game (for its simplicity), for geneticists who are now able to edit almost anything they can think of. They can create winged men, mermaids, being’s half men-half bulls or half men-half rams (fauns), although the collateral effect (butterfly effect, on the whole body), is unpredictable because to form a man like the current one (without genetic modification) costed the nature millions of years, in order that all parts -including all genes- fit perfectly. Although the Chinese geneticist says that no other gene has been affected, most likely these girls are mosaics (not all cells are the same). Some cells may be inactivated, others may not, even, some would have unexpected genetic alterations in CCR5-like genes. The effects these editions will have on subsequent generations remain to be seen, although to tell the truth, I  believe that all kinds of collateral effects can be reversed. 2) And as it happened in times of Nazi rule (eugenic experiments to achieve genetic improvements), or as in  Inca empire (confinement of disabled people in certain Cusco areas), some dominant societies will initiate a human biological editing career creating improved supermen to be used as athletes (swimmers with interdigital fins and/or fish bodies), soldiers with huge muscles and hardened skeleton conformations), super-improved human being technicians (with big  brain cortexes), at the same time that it will be initiated  isolation  or exterminations of genetically disabled individuals. An unreason too, because mutations will continue to occur in genetically edited human beings and because the sci-tech of the future will develop appropriate methods to reverse any existing disability. 3) All the above -no doubt- will create more inequalities among humans. 4) Then, we will arrive  at an age where we will try to be gods, scattering genetically modified eggs inserted in  amber habitats, in habitable planets to be discovered,  so that the environment and chance promote living beings according to the circumstances  and  not necessarily similar to us. That would be good.


El genetista chino: Jiankui He (Universidad de Ciencia y Tecnología del Sur: SUSTech, Shenzhen, China), asegura haber creado las primeras dos gemelas modificadas genéticamente, mediante la técnica CRISPR/Cas9, eliminando el gen CCR5, tornándolas inmunes al VIH, la viruela y el cólera, con lo que tendrián ciertas características añadidas por voluntad de sus padres (no necesariamente las deseadas por los recipientes).  En China no se prohíbe la implantación de bebés editados genéticamente, que altera sus genomas y el de sus descendientes, creando una nueva estirpe de humanos. En China no se prohíbe la implantación de bebés editados genéticamente. Tenía que suceder. El ser humano siempre busca lo prohibido (lo oculto), y lo seguirá haciendo.  Ahí radica el error y en parte la belleza de los humanos, al subestimar los riesgos que tales empresas conllevan. En la edición biológica de seres vivos discutiremos 3 frentes futuristas:  1) La etapa analfabeta de la edición de genoma se dio desde tiempos antiguos mediante cruces de animales y vegetales, hasta que Mendel, la puso en un nivel científico expectante. El perfeccionamiento y masificación de esta técnica ocurre con la aparición de plantas genéticamente mejoradas. Con la emergencia de la técnica CRISPR/Cas9, la edición biológica en general, ha devenido en un juego de niños (por su simpleza), para los genetistas que ahora son capaces de editar casi cualquier cosa que se les ocurra. Podrán crear hombres alados, sirenas, seres mitad hombres-mitad toros o mitad hombres-mitad carneros (faunos), aunque el efecto colateral (efecto mariposa, sobre el todo corporal), sea impredecible porque formar un hombre como el actual (sin modificación genética artificial, le costó a la naturaleza millones de años, donde todas las partes (y, sus genes), encajan a la perfección. Aunque el genetista chino diga que ningún otro gen ha resultado afectado, lo más probable es que estas niñas sean mosaicos (que no todas sus células sean iguales). Puede que algunas células estén inactivadas, pero otras no, incluso que algunas tengan alteraciones genéticas inesperadas en genes parecidos al CCR5. Quedan por verse los efectos que estas ediciones tendrán en las generaciones siguientes, aunque, a decir verdad, tampoco creo que no sean imposibles de ser revertidas. 2) Y  como sucedió en épocas del dominio nazi (experimentos eugenésicos  para lograr mejoras genéticas), o del imperio inca (confinamiento  de discapacitados en ciertas áreas cusqueñas), algunas sociedades dominantes iniciaran una carrera edicionista biológica humana creando superhombres mejorados para ser usados como atletas (nadadores con aletas interdigitales y/o cuerpos de pez),  soldados con musculaturas enormes y esqueletos y conformaciones esqueléticas  endurecidas), técnicos supermejorados (con ampliaciones extensas de sus cortezas cerebrales),  al mismo  tiempo que se iniciaran  aislamientos o exterminios de individuos discapacitados genéticamente. Una sinrazón también, porque las mutaciones continuaran produciéndose en los editados genéticamente y porque la ciencia-técnica del futuro desarrollara métodos adecuados para revertir cualquier discapacidad existente. 3) Todo lo anterior -no cabe duda- creara más desigualdades entre los humanos. 4) Arribaremos así, a una edad donde intentaremos ser dioses, esparciendo huevos genéticamente modificados insertos en habitáculos de ámbar, en planetas habitables por descubrir para que el medioambiente y el azar promuevan seres vivientes de acuerdo a las circunstancias, no necesariamente semejantes a nosotros. Eso sería bueno. 

Labels: , ,

Saturday, January 12, 2019



Emmanuel Martinod (thoracic and vascular surgery/Avicenne Hospital/Bobygni/France) and collaborators just transported the transplant surgery one step further, for 2 reasons: 1) they replaced the trachea and/or parts of it, affected by lesions or tumors in 13 patients, with segments of descending thoracic aorta, with diameter similar to normal tracheas and having more resistance to infections. The donated aortic segments were previously bioengineered: removal of all living biological material, conditioning with stem cells, adequacy of their mechanical properties and achievement of absence of antigenicity so that it could be rapidly colonized by cells of the respiratory tissue cultured from the recipient. 2) By chance, which seems almost always to accompany intrepid people, because once grafted, the aorta of motu proprio began to develop respiratory tissue and cartilage (without growth factors in between), facts proven by histological samples obtained by biopsy in some patients. Transformation of the aortic tissue into a well differentiated tracheal tissue, with mucociliary epithelium and generation of new tracheal cartilages, occurred 6 to 36 months after transplantation. The French group implanted the aorta, nature did the rest. By demonstrating a low mortality rate (5%) in its 13 patients, Martinod has facilitated the improvement of this technique. Obviously, much remains to be explained in relation to the full emergence of tracheal tissue. Consider that the transplanted tissue is the result of contributions from biological engineering, materials science and mechanical engineering techniques.


Emmanuel Martinod (cirugía torácica y vascular/Hospital Avicenne/Bobygni/Francia) y colaboradores acaban de transportar a la cirugía de trasplantes un paso adelante, por 2 razones: 1) reemplazaron la tráquea y/o partes de ella afectas por lesiones o tumores en 13 pacientes, con segmentos de aorta torácica descendente, con diámetro similar a tráqueas normales y poseer más resistencia a las infecciones. Los segmentos de aorta donadas fueron sometidas previamente a bioingeniería:  remoción de  todo material biológico vivo, acondicionamiento  con células madre, adecuación de sus  propiedades mecánicas y logro de ausencia de antigenicidad a fin de que sea rápidamente colonizada por células del tejido respiratorio cultivadas a partir del recipiente. 2) Por el azar, que parece acompañar casi siempre a intrépidos con visión de futuro, ya que una vez injertada, la aorta de motu proprio empezó a desarrollar tejido respiratorio y cartílagos (sin factores de crecimiento de por medio), hechos comprobados mediante cortes histológicos obtenidos mediante biopsia a algunos pacientes. La transformación del tejido aórtico en un tejido traqueal bien diferenciado, con epitelio mucociliar y generación de nuevos cartílagos traqueales, ocurrió 6 a 36 meses después del trasplante. El grupo francés implanto la aorta y la naturaleza hizo el resto.    Al demostrar una tasa de mortalidad baja (5%) en sus 13   pacientes, Martinod ha facilitado el perfeccionamiento de esta técnica. Obviamente, queda mucho por explicar en relación a la emergencia plena del tejido traqueal.  Tener en cuenta que el tejido trasplantado es el resultado de aportes de la ingeniería biológica, la ciencia de materiales y técnicas de ingeniería mecánica.

Labels: , , ,

Sunday, January 06, 2019


From xinhua news

From la recherche


On 03.01.2019, the Chinese lander Chang'e-4's, needed 12 minutes to alight gently on a flat area of ​​a crater on the hidden side of the moon. Since the movements of rotation and revolution of the moon last the same, the hidden face of the moon could never be mapped. A very precise descent, as you can look: 1) The module landed in a wild area full of craters, with high hills and mountains of 10 km high, a very risky landing needing  the best possible technology. 2) The module made an almost vertical descent to avoid interference with the mountains and their navigation systems. 3) The descent transmitted to the Earth was possible by the help of a Chinese relay satellite, which orbited 7 months before around the hidden face of the moon. 4) At the beginning of the descent, one of the engines was canceled to reduce the landing speed to almost zero km / s, with the module facing the moon. At 2 km altitude, the cameras took photos of the lunar surface to identify large obstacles. At 100 m, the smallest obstacles were identified, identifying the safest place. At 2 m from the surface the module stopped landing, supported by 4 padded legs to withstand the shock. 5) The rover: Yutu-2, descended and after receiving an order, extended its solar panel and mast and descended down a slope. The Yutu-2, was prepared to withstand the pressure of vacuum, intense radiation and extreme temperatures, being equipped with a panoramic camera, infrared image spectrometer, a radar to obtain images of the surface of the moon, detect the lunar structure and the characteristics of the soil. 6) The Chinese technological advancement was evidenced by the fact that previous moon landings required to be totally controlled from the ground. This time, most of the processes of the Chang'e-4's module were autonomous. 7) The Chinese recognized the support of Russia, who provided China with an engine with radioisotopes powered by electricity. 8) Now China will try to build a lunar airport scientific research station, to receive multiple international probes. After the Chinese success, astrophysicist Joseph Silk (l'Institut d'astrophysique de Paris and University of Johns-Hopkins, Baltimore), has begun to promote the construction of a radio telescope on the dark side of the moon, to study the start of the universe. According to Silk: "We know the infinitesimal fluctuations of the cosmic microwave background, a radiation emitted 380,000 years after the Big Bang, when light began to uncouple from matter. Between the emission of the cosmic microwaves and the ignition of the first stars there is a dark period of the universe. A radio telescope built on the dark side of the moon is the only way to study this era of the cosmos, a period very close to the beginning of the universe, the first moments of an extraordinary inflation that occurred shortly after the Big Bang, before stopping its acceleration because of the cold, due to the increase in the volume of the universe. " "We cannot observe the beginning of the universe, because the cosmic microwave background acts as a mist. There is a way to validate the inflation of the primordial universe: the fluctuations of the temperature of the cosmic background microwaves, which, although grossly, follow the statistical rules of a Gaussian curve. A lunar rover is needed to deploy a lunar radio-antenna." "It is necessary to look for these signs on the dark side of the moon, because there are no stars or galaxies, only clouds of H and little He. This H was able to absorb a portion of the background cosmic microwaves, at a wavelength of 21 cm. If each galaxy is formed by 1 000000 of clouds with this H, when each of these clouds will be detected, data 1,000 times greater than those collected by the Planck satellite will accumulate." "With the expansion of the universe, the wavelength of 21 cm, now is 10m (frequency: 30 MHz), a low radio frequency. However, on land, maritime radars, mobile phones and the ionosphere alter the reception of these frequencies." "A large number of connected radio antennas are equivalent to a giant radio telescope. To build a radio telescope on the moon, radio antennas similar to those used to receive television would be used, capable of detecting low frequencies. With the help of robotic devices to deploy this telescope or a moon base, the system would be completed."


El 03.01.2019, el módulo de aterrizaje chino Chang’e-4’s, necesito 12 minutos para posarse suavemente sobre el área plana de un cráter del lado oculto de la luna.   Dado que los movimientos de rotación y revolución de la luna duran lo mismo, nunca se pudo cartografiar la cara oculta de la luna. Un descenso muy preciso, por donde se le mire: 1) El módulo aterrizo en un área   agreste llena de cráteres, con colinas elevadas y montañas de 10 km de altura, aterrizaje muy riesgoso necesitado de la mejor tecnología posible.  2) El módulo realizo un descenso casi vertical para evitar interferencias con las montañas y sus sistemas de navegación. 3) El descenso trasmitido a la Tierra fue posible por la ayuda de un satélite retrasmisor   chino, que orbitaba desde 7 meses antes alrededor de la cara oculta de la luna.  4) Al iniciarse el descenso, uno de los motores fue cancelado para disminuir la velocidad de aterrizaje a casi zero km/s, con el módulo de cara a la luna. A 2 km de altura, las cámaras tomaron fotos de la superficie lunar para identificar grandes obstáculos. A 100 m, se identificaron los obstáculos más pequeños, identificándose el lugar más seguro. A 2 m de la superficie el módulo se detuvo aterrizando apoyada por 4 piernas acolchadas para soportar el choque.  5) El rover: Yutu-2, descendió y tras recibir una orden, extendió su panel solar y mástil y descendió por una pendiente. El Yutu-2, estaba preparado para resistir la presión del vacío, la radiación intensa y temperaturas extremas, estando equipado con una cámara panorámica, espectrómetro de imágenes infrarojo, un radar para obtener imágenes de la superficie de la luna, detectar la estructura lunar y las características del suelo. 6) El avance tecnológico chino quedo evidenciado por el hecho de que los alunizajes previos requirieron ser controlados totalmente desde la tierra. Esta vez, gran parte de los procesos del módulo Chang’e-4’s, fueron autónomos. 7) Los chinos reconocieron el apoyo de Rusia, quienes proporcionaron a China un motor con radioisótopos alimentados con electricidad. 8) Ahora China intentara construir una estación de investigación científica-aeropuerto lunar, para recibir   múltiples sondas internacionales.   Tras el éxito chino, el astrofísico Joseph Silk (l'Institut d'astrophysique de Paris and University of Johns-Hopkins, Baltimore), ha empezado a promover la construcción de un radiotelescopio en el lado oscuro de la luna, para estudiar el inicio del universo.     Según Silk:” Conocemos las fluctuaciones infinitesimales de las microondas cósmicas de fondo, una radiación emitida 380,000 años después del Big Bang, cuando la luz empezó a desacoplarse de la materia. Entre la emisión de las microndas cósmicas y la ignición de las primeras estrellas hay un periodo oscuro del universo. Un radio telescopio construido en el lado oscuro de la luna es el único modo de estudiar   esta época del cosmos, un periodo muy cercano al inicio del universo, los primeros momentos de una extraordinaria inflación ocurrida poco después del Big Bang, antes de detener su aceleración a causa del frio, debido al  incremento de volumen del universo”. “No Podemos observar el inicio del universo, porque las microondas cósmicas de fondo actúan a modo de neblina.  Hay una forma de validar la inflación del universo primordial:  las fluctuaciones de la temperatura de las microndas cósmicas de fondo, que, aunque groseramente, siguen las reglas estadísticas de   una curva Gaussiana.  Se necesita un rover lunar para desplegar una radio-antena lunar”. “Es necesario   buscar estas señales en el lado oscuro de la luna, porque ahí no hay estrellas ni galaxias, solo nubes de H y escaso He. Este H pudo absorber una porción de las microndas cósmicas de fondo, a una longitud de onda de 21 cm.  Si cada galaxia está formada por 1 000000 de nubes con este H, al detectarse   cada una de estas nubes se acumularán datos   1,000 veces mayores que los acopiados por el satélite Planck.” “Con la expansión del universo, la longitud de onda de 21 cm ahora es de 10m (frecuencia:  30 MHz), una baja frecuencia de radio. No obstante, en la tierra, los radares marítimos, los fonos móviles y la ionosfera alteran   la recepción de estas frecuencias”. “Un gran número de antenas de radio conectadas equivalen a un telescopio gigante de radio.  Para construir un radio telescopio en la luna se emplearían radio antenas similares a las usadas para recibir televisión, apta para detectar bajas frequencias. Con ayuda de dispositivos robóticos para desplegar este telescopio o una base lunar, se completaría el sistema”.   

Labels: , ,

Saturday, January 05, 2019



In 1952, Alan Mathison Turing designed a mathematical model of biological pattern formation (The chemical basis of morphogenesis, 1952,, which would allow developing varieties of rays, spots and scales that would emerge from the interaction of two chemical agents, capable of explaining myriads of biological patterns: mammalian hair, bird feathers, etc. Turing hypothesized that these chemical substances (morphogens), which would react and diffuse together with each other through tissues, could explain the morphogenesis. Although such a system could initially be homogeneous it could later develop different structural patterns due to the instability of the homogeneous equilibrium induced by random disturbances. Turing discussed in his paper a possible mechanism by which the genes of a zygote could determine the anatomical structure of the resulting organism. Now Gareth Fraser (University of Florida), proposes that denticles of the skin of sharks are established in real life by mechanisms similar to that proposed by Turing. Fraser suggests that developing embryos of several   vertebrates establish such patterns in their outer layers since the first vertebrates appeared. The Turing model: reaction-diffusion mechanism, requires an activator and an inhibitor, when disseminating between tissues. The activator initiates the process, forming a spot and promoting its production, while the inhibitor would stop the 2 actions, spreading faster, preventing the formation of activation pockets. Depending on when and where they were released, and the activation pockets would manage to form spaced points and stripes. According to Turing, an initial row of points would stimulate the production of rows of points parallel to the sides of the embryo until it is covered. Rory Cooper assures that from very old the sharks had denticles (little scales), that covered its body as an armor, serving to protection, to diminish the friction or to lodge bacteria, useful in communication procedures. Fraser's colleagues constructed a model of mathematical interactions between the activator and the inhibitor, making the frequencies of diffusion, production and degradation of the 2 morphogens to produce patterns similar to shark skin. When Cooper used in situ hybridization, a technique of luminous expression of genes in tissues noticed that these were light up in both sharks and chickens, expressing highly conservative mechanisms. In Biology, if the expression of a gene is reduced and the pattern disappears, it is concluded that the suppressed gene plays an important role in the production of the pattern. Cooper used a chemical to inhibit the activator of the chicken feathers, impregnating it along the proto-denticles of the shark's embryo. On the other hand, the chemicals to inhibit the expression of the activation of the genes of a bird had identical effect in a shark, forming a dead flat area devoid of denticles, being able to correct also the production, degradation and diffusion frequencies of the activator and inhibitor. The quite conservative nature favors the biological diversity based on a strict set of principles reused again and again, evolutionarily.


En 1952, Alan Mathison Turing diseño un modelo matemático de formación de patrones biológicos  (The chemical basis of morphogenesis, 1952,, que permitirían desarrollar variedades de rayas, manchas y escamas que emergerían de la interacción de dos agentes químicos, capaces de explicar miríadas de patrones biológicos: pelo de mamíferos, plumas de aves, etc. Turing hipotetizo que estas sustancias químicas (morfogenos), que reaccionarían y difundirían en juntos entre si a través de los tejidos, podrían explicar la morfogénesis. Aunque tal sistema podría ser inicialmente homogéneo podría desarrollar más tarde patrones estructurales diferentes debido a la inestabilidad del equilibrio homogéneo inducido por disturbios al azar. Turing discutió en su artículo un posible mecanismo por el cual los genes de un zigote podían determinar la estructura anatómica del organismo resultante.  Ahora Gareth Fraser (U Florida), propone que los dentículos de la piel de los tiburones son establecidos en la vida real por mecanismos semejantes al propuesto por Turing.  Fraser, sugiere que embriones en desarrollo de diversos vertebrados establecen tales patrones en sus capas externas desde que aparecieron los primeros vertebrados.  El modelo de Turing: mecanismo de reaccion-difusion, requiere de un activador y un inhibidor, al diseminarse entre los tejidos. El activador inicia el proceso, formando una mancha y promoviendo su producción, en tanto que el   inhibidor detendría las 2 acciones, diseminándose más rápido, impidiendo la formación de bolsillos de activación. Dependiendo de cuando y donde fuesen liberados, los bolsillos de activación se las arreglarían para formar puntos y rayas espaciadas. Según Turing, una fila de puntos inicial estimularía la producción de filas de puntos paralelas a los lados del embrión hasta cubrirla. Rory Cooper, asegura que desde muy antiguo   los tiburones tenían dentículos (escamas), que cubrían su cuerpo a modo de una armadura, sirviendo como protección, para disminuir la fricción o, para albergar bacterias, útiles en la comunicación. Los colegas de Fraser construyeron un modelo de interacciones matemáticas entre el activador y el inhibidor, logrando que las frecuencias de difusión, producción y degradación de los 2 morfogenos   produjeran s patrones semejantes a la piel del tiburón.  Cuando Cooper empleo hibridación in situ, una técnica de expresión luminosa de genes en tejidos noto que estos se encendían tanto en tiburones como en pollos, expresando mecanismos altamente conservadores.  En Biología, si se reduce la expresión de un gene y el patrón desaparece, se concluye que el gene suprimido juega un rol importante en la producción del patrón. Cooper empleo un químico para inhibir al activador de las plumas del pollo, impregnándolo a lo largo de los proto-dentículos   del embrión del tiburón. De otro lado, los químicos para inhibir la expresión de la activación de los genes de un ave tenían efecto idéntico en un tiburón, formando una zona plana muerta desprovista de dentículos, lográndose corregir además la producción, degradación y frecuencias de difusión del activador e inhibidor.  La naturaleza bastante conservadora, favorece la diversidad biológica basándose en un set estricto de principios reusados una y otra vez, evolutivamente.

Labels: , , , , ,