Google
Support independent publishing: buy this book on Lulu.

Wednesday, May 09, 2018

Brain organoids











BRAIN  ORGANOIDS
Since 6 years ago (2012), scale projects began to be developed in Europe and USA, to unravel the cerebral functioning, within them: I) The European project: Human Brain Project, with the aim of performing a perfect simulation of the brain in supercomputers. Scheduled to present achievements within 10 years, European governments committed to invest 1200 million euros in the attempt. Through reverse engineering (study of parts of everything, until inferring the original total design) and mathematical models, European scientists waited at the end of the project: modeling drugs, creating high-performance computers and improving robotics and artificial intelligence. Despite some administrative and hierarchical problems (a single scientific view), the project continued, although with many criticisms for not having relevant achievements and being more focused on external aspects (supercomputers), than on  the brain II) In 2013,  started the American Project: Brain (Brain Research through Advancing Innovative Neurotechnologies), with only 100 million dollars of budget, but endowed with a more practical vision,  several scientific visions and being more focused on internal aspects of the brain, achieving in a short time to identify 97 new brain  circuits, correlations between brain function and behavior, new areas of storage of information, interactions between neurons and neural circuits, new methods to analyze brain function (optogenetics) and   creation of new medical neurological devices. Also: III) studies of the connectome (map of interneuronal connections) and: IV) the Mapseq (map of neuronal projections), developed by Anthony Zador. To the above has been added in recent years various studies on: V) brain organoids (small masses of brain tissue), extracted from rodents or humans (neurosurgery of alive patients or shortly after death), maintained in laboratories with the necessary nutrients, being also possible to generate them from stem cells or induced stem cells (from the skin). Currently, it is intended to generate larger organoids, equipping them with blood vessels, although this growth already begins to generate ethical problems. It has been reported that after applying light in a region where cells of the retina coexisted with other brain cells, stimulation with light achieved an organoid response, requiring guides to identify sensations of pleasure, pain or stress.  If signs of consciousness appear in an organoid, it will be necessary to protect its rights. Brain organoids are used to study:  functioning stem cell differentiators, which are self-organized into structures that resemble certain human brain regions, and can be combined with other regions generating brain assembloids that serve to study the formation of neural circuits and cellular interactions between different regions. In vivo, cerebral organoids receive primitive sensory inputs, but ex vivo organoids have no sensory inputs and can not communicate with other brain regions or generate motor outputs. It is possible to manipulate the discharges of specific neurons using optogenetics (light to activate neurons, genetically modified). Transplants are also performed: human cells derived in vitro from stem cells are inserted into animal brains (rodents), while the fetus is developing or after it has been born, generating chimeras. Human glial cells have been transplanted into mice, the same ones that learn best. Human stem cells have been transplanted into pig embryos in early stages, which were then transferred to surrogate (surrogate) sows embryos where they were developed until the first trimester. Human brain organoids have been transplanted into rodents. Thanks to the above, ethical problems continue to grow: ¿is it possible that brain tissue removed from a living person retains some memory? Will have animal-human chimeras, some form of consciousness? If a transplant of this type reverses brain function, will the definition of brain death, change? Who will be responsible for a removed brain organoid? Must we eliminate mice with advanced cognitive ability? Must the entire information from this type of experiments be shared or some parts of the reports be deleted?
ORGANOIDES   CEREBRALES
Desde hace 6 años (2012), se empezaron a desarrollar en Europa y USA proyectos a escala, para desentrañar el funcionamiento cerebral, dentro de ellos: I) Proyecto europeo: Human Brain Project, con la pretencion de realizar una simulación perfecta del cerebro en supercomputadoras. Programado para presentar logros dentro de   10 años, los gobiernos europeos se comprometieron a invertir 1200 millones de euros en el intento. Mediante ingeniería reversa (estudio de partes del todo, hasta inferir el diseño total original) y modelos matemáticos, los científicos europeos esperaban al terminar el proyecto: modelar drogas, crear computadoras de alta performance y mejorar la robotica y la inteligencia artificial. Pese a algunos problemas administrativos y jerárquicos (una sola visión científica), el proyecto continuo, aunque con no pocas criticas por no contar con logros de relevancia y estar mas   focalizado en aspectos externos (supercomputadoras), al cerebro II) El 2013, se inicio el Proyecto americano: Brain (Brain Research through Advancing Innovative Neurotechnologies), con apenas 100 millones de dolares de presupuesto, pero dotada de  una visión mas practica, premunida de  varias visiones científicas  y estar   mas centrada en   aspectos internos del cerebro logrando en poco tiempo  identificar 97 nuevas rutas cerebrales,  correlaciones entre la función cerebral y la conducta, nuevas áreas de  alamacenamiento de la información,  interacciones entre neuronas y circuitos neurales,  nuevos métodos para analizar la función cerebral (optogenetica) y  creación de nuevos dispositivos neurológicos médicos.    Tambien: III) estudios del conectoma (mapa de conexiones interneuronales) y: IV) el Mapseq (mapa de proyecciones neuronales, desarrollado por Anthony Zador). A lo anterior se ha agregado en los últimos años diversos estudios sobre: V) Organoides cerebrales (pequeñas masas de tejido cerebral), extraidas de roedores o humanos (neurocirujia de pacientes vivos o poco después de la muerte), mantenidas en laboratorios con   nutrientes necesarios, siendo también   posible generarlos a partir de    células madre o células madre inducidas, de la piel. Actualmente, se intenta generar organoides de mayor tamaño, dotándolos de vasos sanguíneos, aunque este crecimiento empiece ya a generar   problemas éticos.  Se ha reportado que después de aplicar[VZMM1] [VZMM2]  luz en una región donde células de la retina, coexistían con otras cerebrales, la estimulación con la luz lograba una respuesta del organoide, necesitándose guias para identificar sensaciones de placer, dolor o estrés; si aparecen signos de conciencia en un organoide, será necesario proteger sus derechos. Los organoides cerebrales son usados para estudiar el funcionamiento cerebral y   enfermedades neurológicas y mentales (autismo, zika, esquizofrenia).    Para generar organoides a partir de células madre se emplean factores de señales y diferenciadores de células madre, las mismas que se autorganizan en estructuras que semejan ciertas regiones cerebrales humanas, pudiendo combinarse con otras regiones generando brain assembloids que sirven para estudiar la formación de circuitos neurales e interacciones celulares entre diferentes regiones. Los organoides cerebrales in vivo reciben input sensorial primitivos, empero los organoides ex vivo no tienen inputs sensoriales y no pueden comunicarse con otras regiones cerebrales o generar outputs motores. Es posible manipular las descargas de neuronas especificas usando optogenetica (luz para activar neuronas, genéticamente modificadas). Tambien se realizan trasplantes:  células humanas derivadas in vitro de células madre son insertadas al interior de cerebros animales (roedores), mientras el feto esta desarrollándose o después que ha nacido generándose quimeras.  Se ha trasplantado células gliales humanas a ratones, los mismos que aprenden mejor. Se han trasplantado células madre humanas a embriones de cerdo en primeros estadios, que luego fueron    transferidos a embriones de cerdas surrogadas (sustitutas) donde se desarrollaron hasta el primer trimestre. Se han transplantado organoides cerebrales humanos a roedores. Merced a lo anterior, los problemas éticos continúan creciendo: ¿es posible que el tejido cerebral removido de una persona viva retenga algo de memoria? Tendran las quimeras animal-humano, alguna forma de conciencia?  ¿Si un trasplante de este tipo revierte la función cerebral, cambiara la definición de muerte cerebral? ¿Quien será el responsable de un organoide cerebral eliminado? ¿Eliminaremos a ratones con avanzada capacidad cognitiva? ¿Se compartirá la totalidad de la información de este tipo de experimentos o algunas partes de los informes, serán eliminados?

Labels: , , , , ,

Friday, April 13, 2018

EMOTIONS



                                            From la Recherche:7 characteristic of emotions



UP TO DATE IN EMOTIONS
Recent studies related to emotions are refounding this area called now: affective neuroscience. The changes are enormous, namely: 1) Although there are structures that process emotions (amygdala, orbitofrontal cortex, ventral striatum), it is no longer accepted that emotions and/or cognitive activities are located in specific compartments and/or separated. There is consensus rather that the emotional processing areas are mixed with circuits that have other brain functions. 2) Functionally, the most refined logical thought needs emotion. Without this, there is no possible reasoning or decision making. Memory, reasoning, planning, making decisions, need emotion. Emotions are not separated from the cognitive processes, contrary they are evolutionarily interrelated by processes whose initial purpose had to do with saving the life of most living organisms 3) Knowledge that could regulate or autoregulate (artificially inhibiting the activity of the amygdala), certain runaway emotions of early childhood, preventing them from damaging the personality of some children forever. According to La Recherche, who publishes an extensive interview with David J. Anderson (Seymour Benzer Professor of Biology, Tianqiao and Chrissy Chen Institute for Neuroscience Leadership Chair/Howard Hughes Medical Institute) and Ralph Adolphs (Professor of Psychology, Neuroscience, and Biology/Director, Caltech Brain Imaging Center), authors of the book: The Neuroscience of Emotion, Princeton University Press, 376 p., to be published in June 2018, which recounts the saga  and recent discoveries of processes linked to emotions. We add some visions and excerpts from this interesting interview: 4) Both are decided to refound affective neuroscience, using optogenetics, fMRI, so-called biomarkers of emotions. 5) Explain evolutionarily, how emotions and cerebral cognitive processes developed. 6) According to D. J. A, the first scientific views of emotions were expressed by Charles Darwin in: The Expression of Emotions in Man and Animals (1872), who considered the nervous system as the key to interpreting emotions. 7) D.J.A. defines the emotions as internal states, which affect the body and the mind and that in the book to be published, the construction of the foundational principles of the science of emotions will be seen, proposing both researchers the adoption of a common structure of use, for psychologists and neurologists. 8) Scientific literature refers to: game, anger, fear, sadness, surprise and disgust, as primary emotions, idea that both researchers expect to be revised, because emotions existed before the words and when they were labeled inadequate common use words were used to characterize them. Instead of giving them a name they should be defined by a list of characteristics (See fig. 1, from La Recherche), that reflect the state of the subject, which helps them make critical decisions for their survival and reproduction. The idea is that emotions were born when simple reflexes were not enough to survive. Better learning, more sensitivity, and flexibility were needed. Emotions would thus be an evolutionary invention, in which complex cognitive processes (thinking and reasoning) would have been added to primitive reflexes. 9) Emotions would be part of a package of behavioral responses, facing particular situations that could be quickly deployed, a cost-benefit issue of a decision made.  Emotions would not be an obstacle to decision making, conversely, decision making would be preceded by an emotional and a cognitive way, with our brain deciding which one to use according to the circumstances. In the opinión of Antonio Damasio, when a decision is made, the consequences are evaluated in advance, associating the results with positive or negative coded values ​​in the brain, for future corporal states. We make decisions to feel better. 10) Concepts of application to the neuro-economy that has developed computational models of decision-making taking into account the emotions and also to the consolidation of memory, since it tends to better remember emotionally stronger events.
PUESTA AL DIA EN EMOCIONES
Recientes y crecientes estudios relacionados con las emociones están refundando esta área denominada ahora: neurociencia afectiva. Los cambios son enormes, a saber: 1) Si bien existen estructuras que procesan las emociones (amígdala, corteza orbitofrontal, cuerpo estriado ventral), ya no se acepta que las emociones y/o las actividades cognitivas, esten localizadas en compartimientos específicos y/o separados. Hay consenso mas bien en que las áreas procesadoras de las emociones están mezcladas con circuitos que tienen otras funciones cerebrales. 2) Que, funcionalmente el pensamiento lógico mas refinado necesita de la emoción. Sin esta, no hay razonamiento posible, ni toma de decisiones. La memoria, el razonamiento, la planificacion, la toma de decisiones, necesitan de la emoción. Las emociones no están separadas de los procesos cognitivos, contrariamente estan evolutivamente interrelacionadas mediante procesos cuya finalidad inicial tuvo que ver con salvar la vida a la mayoría de organismos vivos 3) Conocimientos que podrían   regular o autoregular (inhibiendo artificialmente la actividad de la amígdala), ciertas emociones desbocadas de la infancia temprana, evitando que estas dañen para siempre la personalidad de algunos niños. Según La Recherche, que publica una extensa entrevista a David J. Anderson (Seymour Benzer Professor of Biology; Tianqiao and Chrissy Chen Institute for Neuroscience Leadership Chair/Howard Hughes Medical Institute) y Ralph Adolphs (Professor of Psychology, Neuroscience, and Biology/Director, Caltech Brain Imaging Center), autores del libro  : The Neuroscience of Emotion, Princeton University Press, 376 p., a ser publicado  en Junio del 2018, que relata  la saga, historia y recientes descubrimientos de procesos  ligados a  las emociones.  Agregamos algunas visiones y extractos de esta interesante entrevista: 4) Refundar la neurociencia afectiva, empleando la optogenetica, el fMRI, biomarcadores soamticos de las emociones. 5) Explicar evolutivamente, como se desarrollaron las emociones y los procesos cognitivos cerebrales.  6) Según D. J. A, las primeras visiones científicas de las emociones las expreso Charles Darwin en: The Expression of Emotions in Man and Animals (1872), quien considero al sistema nervioso como la clave para interpretar las emociones. 7) D. J. A. define las emociones como estados internos, que afectan al cuerpo y la mente y que en el libro se vera el proceso de construcción de los principios fundacionales de la ciencia de las emociones, proponiendo ambos investigadores la adopción de una estructura común de uso, para   psicologos y neurologos. 8) En la literatura cientifica se alude al juego, la furia, el miedo, la tristeza, la sorpresa y el disgusto, como emociones primarias, idea que ambos investigadores esperan sea revisada, porque las emociones existieron antes de las palabras y cuando fueron etiquetadas se emplearon   palabras de uso común inadecuadas para caracterizarlas. En lugar de darles un nombre deberían ser definidas mediante una lista de características que reflejen el estado del sujeto, que lo ayuda a tomar decisiones criticas para su supervivencia y reproduccion. La idea es que las emociones nacieron cuando los reflejos simples no eran suficientes para sobrevivir, se necesitaban mejores aprendizajes, mas sensibilidad, y flexibilidad. Las emociones serian pues un invento evolutivo, en el que procesos cognitivos complejos (pensar y razonar), se habrían añadido a los reflejos primitivos. Las emociones serian parte de un   paquete de respuestas conductuales, frente a situaciones particulares que podrían ser rápidamente   desplegadas, un tema coste-beneficio de una decisión tomada.9)Las emociones no serian un obstáculo a la toma de decisiones. Contrariamente, la toma de decisiones discurriría previamente por una via emocional y otra cognitiva, siendo nuestro cerebro quien decidiría cual usar según las circunstancias. Según Antonio Damasio, cuando una decisión es tomada, las consecuencias son elevaluadas de antemano, asociándose los resultados a valoraciones positivas o negativas codificadas en el cerebro, para estados corporales futuros. Tomamos decisiones para sentirnos mejor. 10) Conceptos de aplicación a la   neuro-economia que ha desarrollado modelos computacionales de toma de decisiones teniendo en cuenta las emociones y, tambien a la consolidación de la memoria, ya que se tiende a recordar mejor los eventos emocionalmente mas fuertes.  

Labels: , , , ,

Sunday, April 08, 2018

MAPseq








¿CAN WE UPLOAD OUR MIND TO A COMPUTER?

It’s  is spoken today about  the possibility to transfer  human brain information to a computer in order to immortalize it, so this possibility is no longer an exclusive property of sci-fi. As these hypotheses gradually begin to materialize through various experimental works, fiction  is vanishing. By gradually being   convinced of the poor design of the human body (short life, limited senses, genetic defects, standard intelligence) and the misconduct of certain human beings, which threaten to destroy the planet that shelters us, some visionaries such as: Julián Huxley (1957: Toward a new humanism), F. Nietzsche (1883-1886, Ubermensch, in: Also Sprach Zarathustra), JBS Haldane (1923: Dédalo and Ícaro the science of the future), ideas to which several transhumanists have recently joined, speak now of extending the useful life, rethink the brain’s functioning  and of transfer it entirely to computers. The transhumanists Anders Sandberg (Future of Humanity Institute, Oxford University, Éthics of brain emulations) and Nick Bostrom (Oxford, University), raised in 2008, the possibility of emulating the totality of a human brain, transferring the function of human nervous systems to softwares reassembling them ad infinitum, in computers. The researchers would scan in detail and at a certain resolution, the structure of a particular brain, building a model software with a physiology faithful to the original brain, so that, when functioning in an appropriate hardware, it would have an internal structure essentially original to the primal brain -immortalized the person- in that way. In 2012, Sebastián Seung (MIT, Princeton University), innovated the cerebral study creating maps of neural connections in the brain (conectoma). And, when few expected it, Anthony Zador (Cold Spring Harbor Laboratory), presents his MAPseq (Multiplexed Analysis of Projections by Sequencing: superdetailed and superfast aps of individual brain circuits), which will change the neuroscience and allow to detect (and: correct) schizophrenias, depressions, psychiatric disorders, etc. To do this, Zador injected genetically modified viruses carrying varieties of known RNA sequences (barcodes/information bits), to the body of a mouse. In a week, the viruses multiplied within the animal, reaching each neuron of the cerebral cortex, with different combinations of bar codes. Then,  researchers cut the brain into sections, analyzing them in a DNA sequencer, allowing barcodes to identify individual neurons and mapping in a precise and multicolored way (with fluorescent dyes), the individual connections of 50,000 neurons (identified in a week). The MAPseq technique is now very competitive, fast and very cheap.

¿PODEMOS LLEVAR NUESTRO CEREBRO A UNA COMPUTADORA?

Que   se hable hoy, de la posibilidad transferir    la información   de un cerebro humano a una computadora a fin de inmortalizarlo, ya no es predio exclusivo de la ciencia ficción. Al empezar gradualmente a materializarse estas hipótesis mediante diversos trabajos experimentales, la ficción va desvaneciéndose.  Al irse convenciendo poco a poco del mal diseño del cuerpo humano (corta vida, sentidos limitados, defectos genéticos, inteligencia standard) y de las   inconductas del mismo, que amenazan con destruir   al planeta que nos cobija, algunos visionarios como: Julián Huxley (1957: Toward a new humanism), F. Nietzsche (1883-1886. Die Ubermensch, in: Also Sprach Zarathustra), J.B.S Haldane (1923: Dedalo e Icaro la ciencia del futuro), a los que últimamente se han sumado diversos transhumanistas, se habla ahora de extender la vida útil, replantear el funcionamiento del cerebro y transferirlo íntegramente  a computadoras. Los transhumanistas Anders Sandberg (Future of Humanity Institute, Oxford University, Éthics of brain emulations) y Nick Bostrom (Oxford, University), plantearon el 2008, la posibilidad de   emular la totalidad de un cerebro humano trasfiriendo la función de sistemas nerviosos humanos a softwares reensamblándolas ad infinitum, en computadoras. Se escanearía en detalle y a cierta resolución, la estructura de un cerebro en particular, construyéndose un software modelo con una fisiología fiel al cerebro original, de modo que, al funcionar en un hardware apropiado, tendría una estructura interna esencialmente original al cerebro primigenio -inmortalizándose la persona-   de ese modo.  El 2012, Sebastián Seung (MIT, Princeton University), innovo el estudio cerebral creando mapas de conexiones neurales cerebrales (conectoma). Y, cuando pocos lo esperaban ahora    Tony Zador (Cold Spring Harbor Laboratory), nos presenta su MAPseq (Multiplexed Analysis of Projections by Sequencing: mapas superdetallados y ultraveloces de circuitos cerebrales individuales), que cambiarán la neurociencia y permitirán detectar (y: corregir) esquizofrenias, depresiones, alteraciones psiquiátricas, etc. Para ello, Zador inyecto virus genéticamente modificados portadores de variedades de secuencias conocidas de RNA (códigos de barras/bits de información), al cuerpo de un ratón. En una semana, los virus se multiplicaron dentro del animal, alcanzando a cada neurona del córtex cerebral, con distintas combinaciones de códigos de barras. Luego los investigadores   cortaron el cerebro en secciones, analizándolas en un secuenciador de DNA, permitiendo los códigos de barras la identificación de neuronas individuales y  mapeando en forma precisa y multicoloreada (con tintes fluorescentes), las conexiones individuales neuronales  de una 50 000 neuronas (identificadas en una semana). La técnica MAPseq, es hoy en día muy competitiva, veloz y muy barata.

Labels: , , , , ,

Wednesday, April 04, 2018

SEGUNDA LEY DE LA TERMODINAMICA





RETHINKING THE II LAW OF  THERMODYNAMICS : QUANTIC  POINT OF VIEW
The second law of thermodynamics states that "the total entropy of an isolated system never decreases over time". In all spontaneous processes, nature allows the flow from  heat states to → cold, never the other way around. That is so, because heat always moves to increase entropy. Total entropy always increases. However, this seemingly unchanging Second Law,  established by physicists such as Joule, Kelvin, Carnot and others, just observing external processes (in balloons, steam engines), that  occurred on a large scale, ignoring what was happening at  level of atomic particles, issuing judgments (laws), in a holistic way. A recent experiment performed on atomic particles has shown an exception to this rule: the flow from a cold body to a hot one, violating the second law of thermodynamics, a phenomenon explained  now by quantum mechanisms, folllowing the same principles of the so called time’s arrow.  Thus, some quantum systems would have a mechanism to introduce exceptions to this seemingly inviolable rule, underlining the intimate relationship between: information-entropy-energy, as explained by the nascent science of quantum thermodynamics. The team of RobertoSerra (Federal University ABC of Sao Paulo, Brazil), aligned the spins of a C atom, one of H and 3 chlorides, with  a magnetic field causing both nuclei to join and be correlated (an inseparable whole : two-qubit quantumstate), a state with bizarre behaviors. A two-qubit system can be in 1 of 4 possible states: 00, 01, 10 and 11, its entropy being defined by the probability of being in each of these states. By comparing the entropy of unique qubits with the entropy of a correlated system, physicists have realized that it is possible to measure the amount of correlation. Experiments in this regard always start with 2 strongly correlated particles and as the experiment progresses, the particles gradually disintegrate,  the correlation weakens and the sum of the entropies decreases. If the total entropy suddenly decreases in an uncorrelated regular system, it would violate the second law. When the correlation is weak, it is possible that we are observing a reversed  entropic state,  one in which the heat of the cold state is directed to the hot state, in which  case   the cold qubit is colder and the hot one warmer, a  phenomenon explained by interrelations and negotiations between correlations and entropy. Some physicists postulate that in these cases -at least in isolated systems- the arrow of time would  follow a reverse route. Although this effect had already been predicted, it is the first time that the reversal is achieved in a physical system. In 2012, researchers from ESPCI ParisTech and CNRS in France induced water waves to retrace their original path. Some physicists would try to build a large-scale thermo-quantum machine to backward explore the origin of the universe and answer the question of why the universe started in a low entropy state. allowing entropy to increase through the history of the cosmos, following the arrow of time.

REPENSANDO LA II LEY DE LA TERMODINÁMICA: PUNTO DE VISTA CUANTICO

La segunda Ley de la termodinámica establece que “la entropía total de un sistema aislado nunca disminuye con el tiempo”. En todos los procesos espontáneos, la naturaleza permite el flujo de estados de calor a → fríos, nunca al revés. Es así, porque el   calor siempre se moviliza para incrementar la entropía.  La entropía total siempre aumenta, irreversiblemente. No obstante, esta aparentemente inmutable segunda Ley, fue establecida por físicos como:   Joule, Kelvin, Carnot y otros, apenas observando  procesos externos en globos, máquinas de vapor, que ocurrían a gran escala, ignorando lo que ocurría a nivel de las partículas atómicas, emitiendo juicios (leyes), holísticos. Un experimento reciente realizado en partículas atómicas ha demostrado una excepción a la regla: el flujo de un cuerpo frió hacia otro caliente, violando la segunda ley de la termodinámica, fenómeno explicado por mecanismos cuánticos, ley responsable -según algunos físicos- del flujo unidireccional del tiempo. Así, algunos sistemas cuánticos tendrían un mecanismo para introducir excepciones a esta regla aparentemente inviolable, subrayando la íntima relación entre: información-entropía-energía, según lo explica la naciente ciencia de la termodinámica cuántica. El equipo de Roberto Serra (Federal University ABC of Sao Paulo,Brazil), alineo los spins de un átomo de C, uno de H y de  3 cloruros, mediante un  campo magnético causando que ambos núcleos se unan y quedaran correlacionados (un  todo inseparable: two-qubit quantum state), un estado con   conductas bizarras.  Un sistema two-qubit puede estar en 1 de 4 estados posibles:  00, 01, 10 and 11, siendo su entropía definida por la probabilidad de estar en cada uno de estos estados. Comparando la entropía de qubits únicos con la   entropía de un sistema correlacionado, los físicos han caído en la  cuenta de que es posible medir la cantidad de correlación.  Los experimentos al respecto se inician con 2 partículas fuertemente correlacionadas y, a medida que el experimento progresa las partículas gradualmente se desunen,  la correlación se debilita y la suma de las entropías disminuye.   Si la entropía total disminuye súbitamente en un sistema regular no correlacionado, violaría la segunda ley. Cuando la correlación es débil, es posible que estemos observando un estado entrópico en reversa,  en el que el calor del estado frio es dirigido al  caliente,  condicionante de  que el    qubit frío sea más frío y el caliente, más caliente. Un fenómeno explicado por las interrelaciones y negociaciones entre las correlaciones y la entropía.  Algunos físicos postulan que al menos en sistemas aislados, la flecha del tiempo en estos casos también seguiría una ruta inversa.  Aunque este efecto ya había sido predicho, es la primera vez que la reversión se logra en un sistema físico. En el 2012, investigadores del ESPCI ParisTech and CNRS in France indujeron a ondas de agua a retrazar su vía original.  Algunos físicos intuyen construir una maquina termo-cuántica a gran escala para explorar vía retroceso  el origen  del universo y responder a  la pregunta de porque el universo se inició en un   estado de baja entropía. permitiendo que la entropía se incremente a través de la historia del cosmos, siguiendo la flecha del tiempo.

Labels: , , , ,

Monday, March 19, 2018

SPARC:new fusion reactor






ITER: OBSOLETE, BEFORE IT IS  BORN?

Some private firms from   USA (Commonwealth Fusion Sistems/constituted  on 2017, with former researchers from MIT), Italy  (ENI) and MIT (Plasma Science and Fusion Center/ MIT), will try in the next 15 years to develop a pilot plant to generate energy through nuclear fusion (union of atomic nuclei), capable of generating immense amounts of energy, free of pollution. The plan foresees the use of high-temperature   superconductors,  capable of generating magnetic super-fields inside a new type of nuclear reactors: SPARC (small compact, robust, compact reactor),  small, cheap, easy to build and faster, able to become antiquated - before being born - to the French ITER (International Thermonuclear Experimental Reactor, started to build on 2013, with economic support from Europe [45%], USA, China, India, Japan, Korea and Russia), given their problems of construction, high cost and organizational problems. An ITER, condemned to an announced death, because it continues half-built, hoping to produce  only on 2035,  its first   overheated  plasma  in a power plant of just 500 MW and a final cost of 50 billion dollars.   The artificial nuclear fusion tries to replicate on Earth, the process that naturally occurs inside our sun, converting H atoms into Helium, at extreme temperatures. Although ITER has advanced creating magnets capable of containing the overheated plasma, it still does not overcome the problem of being able to control the reaction, given the extreme temperatures. ITER is confident that the generated and reheated energy will move turbines that will produce electricity at low cost, expecting to build more than 100,000 km of niobium superconductors, a prerequisite for the construction of supermagnets that would conduct the superheated plasma (superheated matter, turned into gas, formed by  free  (not joined as in atoms), positive  and negative subatomic particles),  away from the metal walls inside the tokamak. The joint venture MIT-CFS, to build the new reactors, has just received 50 million dollars to research, refine and transform in the following 3 years different varieties of superconductors at extreme temperatures, then in the next 10 years have ready the first reactor prototype, a 200-megawatt power plant to export electricity. Researchers at MIT and the CFS plan to avoid contacting the superheated plasma with any part of the interior of the tokamak, developing powerful superconductors and electromagnets capable of producing a more compact version of tokamak. Here,  enters to carve a new superconducting material: an steel tape, covered by a compound of: Yttrium-barium-copper oxide (YBCO), which will allow scientists to produce smaller and more powerful magnets, reducing the amount of energy necessary to start the fusion reactions. The CFS will design and build a compact experimental fusion plant: SPARC, using these magnets, with the expectation that its first commercial fusion plant will generate 100 MW of electricity, enough to supply a small city. Supermagnets are the key technology for these new fusion reactors as their magnetic fields will be 4 times more powerful than any current tokamak. The final design includes a sustainable, carbon-free, potentially inexhaustible fusion plant (200 MW of electricity), within 15 years. The SPARC, an evolution of the tokamak, has only 1/65 of   ITER’ volume, thus  drastically reducing the cost of these plants.

 ITER: ¿OBSOLETO, ANTES DE NACER?

Algunas firmas privadas de USA (Commonwealth Fusion  Sistems/constituida el 2017, con ex investigadores del MIT), Italia (ENI) y el MIT (Plasma Science and Fusión Center/MIT), intentaran en un plazo de 15 años, desarrollar una planta piloto para generar energía mediante fusión nuclear (unión de núcleos atómicos), capaz de  generar  inmensas cantidades de energía, libres de polución. El plan prevé la utilización de  superconductores de electricidad de alta temperatura, capaces de generar supercampos magnéticos al interior de un nuevo tipo de reactores nucleares : SPARC (smallest private affordable, robust compact reactor), pequeños, baratos, fáciles de construir y más  veloces, capaces de  tornar anticuado -antes de nacer- al ITER francés (International Thermonuclear Experimental Reactor,   empezado a construir  el  2013, con  respaldo  económico de Europa [45%],  USA, China, India, Japón, Corea y Rusia),  dado sus problemas de construcción, alto costo y problemas de organización. Un ITER, condenado a una muerte anunciada, porque continua a   medio construir esperando producir recién el 2035, su primer plasma recalentado en una planta de poder de apenas 500 MW y un costo final de 50 billones de dólares.  La fusión nuclear artificial intenta replicar en la Tierra, el proceso que en forma natural ocurre al interior de nuestro sol, convirtiendo átomos de H en Helio, a temperaturas extremas.  Aunque el ITER ha avanzado creando magnetos capaces de contener el plasma recalentado, aun no supera el problema de poder controlar la reacción, dadas las temperaturas extremas. El ITER, confía en que la energía generada y recalentada moverá turbinas que producirán electricidad a bajo costo, esperando   construir más de 100,000 km de superconductores de niobio, prerrequisito para la construcción de supermagnetos que conducirían el plasma recalentado (materia supercalentada, devenida en gas, conformada por partículas subatómicas positivas y negativas libres: no unidas como en los atomos), lejos de las paredes metálicas del interior del tokamak. El joint venture MIT-CFS, para construir los nuevos reactores, acaba de recibir 50 millones de dólares   para investigar, perfeccionar y transformar en los siguientes 3 años distintas variedades de superconductores a temperaturas extremas, para luego en los siguientes 10 años tener listo el  primer prototipo de reactor,  una planta de poder de  200-megwatt para exportar electricidad.  Los investigadores del MIT y el CFS, prevén evitar el contacto del plasma recalentado con cualquier parte del interior del tokamak, desarrollando poderosos superconductores y electromagnetos capaces de elaborar una versión más compacta de tokamak. Aquí, entra a tallar un nuevo material superconductor:  una cinta de acero, cubierta por un compuesto de:  Ytrio-bario-oxido de cobre (YBCO), que permitirá a los científicos producir magnetos más pequeños y más poderosos, reduciendo la cantidad de energía necesaria para  iniciar las reacciones de  fusión.  El CFS diseñara y construirá una planta de fusión experimental compacta: SPARC, empleando estos magnetos, esperándose que su primera planta comercial de fusión genere 100 MW de electricidad, suficiente para abastecer una pequeña ciudad. Los supermagnetos son la tecnología clave para estos nuevos reactores de fusión en tanto sus campos magnéticos serán 4 veces más potentes que cualquier tokamak actual. El diseño final comprende a una planta de fusión sostenible, libre de carbón, potencialmente inexhaustible (200 MW de electricidad), dentro de 15 años. El SPARC, una evolución del tokamak, posee apenas 1/65 del volumen del ITER, reduciendo   drásticamente el costo de estas plantas.  


Labels: , , , ,

Friday, February 23, 2018

QUANTUM COMPUTERS






Taken from quantamagazine

NOISE  AND QUANTUM COMPUTERS

Now that IBM, Intel, Google, the Chinese republic, and others invest large amounts of money in star ups and prototypes of quantum computers (CC), it is appropriate to have a futuristic vision of these, because current CC are rudimentary and confront several problems. According to the theoretical model of superstring theory, it is assumed that  particles that give shape to matter and the world are not points but rather vibrational states of more basic objects called strings. Then, a vibrational machine (CC), can be seriously affected by other vibrational states, external to it (noise), with which the processes of the CC, are affected by interference, generating erratic results.  Michel Devoret before and now Gil Kalai (Hebrew University, Jerusalem), believe that quantum computers will never work consistently and that their advantages will not be very large, because all physical systems are noisy and   that entanglements  will be corrupted by any noise from the external world. A problem that induced the Chinese scientist Jian-Wei Pan (University of Science and Technology of China USTC), to demonstrate the validity of CC, in other scenarios. Jian, who dreams of manipulating particles one by one and intertwining them at will, has managed to couple (2017) an experimental quantum satellite with a similar instrument located on the Chinese space station. Jian says that in an optical fiber the signal decreases exponentially with distance and that after 1,000 km, the absorption of light prevents the transmission of more than 1 quantum bit per century, so it is necessary to invent a quantum repeater to extend the distance of quantum communications in optical fibers. With this it will be possible to detect the state of a particle of light, before it is absorbed, to transfer it to another area and teleport it from one particle to another, being necessary for it to have quantum memories, to store the state of a photon, before transfer it. Aside from the previous thing, Jian explores the quantum communications in the space, where the absorption of the light is much smaller (80-99.99%, less than the initial signal), needing new protocols to assure the communication. Elsewhere in the world, some scientists also  follows alternate paths: Elizabeth Behrman (Wichita State University) combines quantum physics with artificial intelligence and the technology of neural networks, a combination that already surpasses several human actions: chess, big data, face recognition, language translation. Although the advances of the quantum processors are still small, the CC of 2000 qbits (D-Wave/Canada), already manipulate large  amounts of data in a single step, detecting hidden patterns. Artificial neural networks recognize patterns, with the help of neurons (basic units of computation). A neuron monitors the output of multiple different neurons, activating many neurons arranged in layers. Intermediate layers create combinations (structures, edges and geometrical shapes), while a final layer produces the output (high level image), through trial and error processes. In a classical PC these interconnections are represented by a matrix of numbers outsourced to a specialized chip: graphic processing unit. However, no classical computer makes algebraic matrices like a quantum CC does. According to Set Lloyd (MIT), the manipulation of large matrices and vectors is exponentially very fast in a CC, an advantage that allows a huge storage capacity resident in the collective properties of the qubits. 2 qubits have 4 states: 2 off, 2 on, 2 off-on, 2 on-off. Each state has a certain amplitude, which can represent a neuron. In 2008, Lloyd, Aram Harrow (MIT) and Avinatan Hassidim (Bar-Ilan University, Israel), demonstrated that by inverting the algebraic matrices, a sequence of logical operations was observed, executed by the CCs. It was then concluded that  CCs are susceptible to further improvements, including noise interference. If, as many people think, the brain works like a quantum PC, because it is not affected by noise? Perhaps, certain adaptive mechanisms made the human brains more resistant to external noise, perhaps the skull and/or the meninges cancel noise. The largest current  CC, has been manufactured in Canada with 2,000 qubits (D-Wave Systems, Vancouver), in which each qubit is a superconducting electric loop, a small electromagnet oriented up, down or superimposed. To make it work, a horizontal magnetic field is activated, which initializes the qubits in top-down superimpositions, allowing the qubits to interact with each other. As most qbits are usually misaligned, some seek to align them in the same direction, in the opposite direction or, under the influence of the horizontal field, although in the end the qbits choose the most convenient orientation. Current CC, have additional problems: ¿how to extract data outside a CC? For this, it is necessary to previously measure the quantum state of the machine, otherwise the machine may collapse. Some researchers have identified short paths to extract data from a CC. According to Lloyd, Silvano Garnerone (University of Waterloo/Canada) and Paolo Znardi (USC), for certain statistical analyzes, it is not necessary to enter or store the data when a few key values ​​may be sufficient. So far, it is understood that CC being faster can revolutionize many areas of teaching and learning. For the moment it is thought that the human brain is a CC and for Perdomo-Ortiz the CC will be able in the future to self-assemble and will be models to study human cognitive models and that while advancing along this path, the CC will be refined.

RUIDO Y COMPUTADORAS CUÁNTICAS

Ahora que IBM, Intel, Google, la republica China y, otros invierten grandes cantidades de dinero en star ups y prototipos de computadoras cuánticas (CC), es adecuado tener una visión futurista de estas, porque las CC, actuales son rudimentarias y confrontan varios problemas.  Según el modelo teorico de la teoría de las supercuerdas, se asume que las particulas que dan forma a la materia y al mundo -no son puntos- sino estados vibracionales de objetos mas básicos denominados cuerdas. Entonces, una maquina vibracional (CC), puede ser seriamente afectada por otros estados vibracionales, externas a ella (ruido), con lo que los procesos de las CC, son afectados por interferencias anticuerdas, generando   resultados erraticos. Ante ello, Michel Devoret antes y ahora   Gil Kalai (Hebrew University, Jerusalem), opinan que las computadoras cuánticas nunca funcionarán en forma consistente y que sus ventajas no serán muy grandes, porque todos los sistemas físicos son ruidosos y las superposiciones (entanglements), seran corrompidas por cualquier ruido del mundo externo. Un problema que indujo al científico chino Jian-Wei Pan (University of Science and Technology of China USTC), a demostrar la validez de las CC, en otros escenarios. Jian que sueña con   manipular particulas una a una y entrelazarlas a voluntad, ha logrado acoplar (2017), un satélite cuantico experimental con un instrumento similar ubicado en la estación espacial china. Jian afirma que en una fibra óptica la señal disminuye exponencialmente con la distancia y que después de 1,000 km, la absorción de la luz impide la    transmision de mas de 1 quantum bit por centuria, por lo que es necesario inventar un repetidor cuantico para extender la distancia de las comunicaciones cuánticas en las fibras opticas. Con ello será posible detectar el estado de una particula de luz, antes que sea absorbida, para transferirla a otra área y   teleportarla de una particula a otra, siendo necesario para ello disponer de memorias cuánticas, para almacenar el estado de un foton, antes de transferirlo. Aparte de lo anterior, Jian explora las comunicaciones cuánticas en el espacio, donde la absorción de la luz es mucho menor (80-99.99%, menos que la señal inicial), necesitándose nuevos protocolos para asegurar la comunicación.  En otros lugares del mundo también se   transita por caminos alternos: Elizabeth Behrman (Wichita State University), combina la física cuántica con la inteligencia artificial y la tecnología de las redes neuronales, una combinación que ya supera varias acciones humanas:  ajedrez, big data, reconocimiento de caras, traducción de idiomas.  Aunque los avances de los procesadores cuánticos aun son pequeños, las CC de 2000 qbits (D-Wave/Canada), ya manipulan grandes cantidades de datos en un solo paso, detectando patrones ocultos.   Las redes neuronales artificiales, reconocen patrones, con la ayuda de neuronas (unidades básicas de computación). Una neurona monitoriza la salida de multiples neuronas distintas, activando a muchas neuronas ordenadas en capas. Las capas intermedias crean combinaciones (estructuras, bordes y formas geometricas), mientras una capa final produce la salida (imagen de alto nivel), mediante procesos de ensayo y error.  En una PC clásica estas interconexiones son representadas por una matriz de números externalizadas a   un chip especializado: unidad de procesamiento grafico.  Empero ninguna computadora clásica, hace matrices algebraicas como lo hace un CC cuantica. Según Set Lloyd (MIT), la manipulación de grandes matrices y vectores es exponencialmente muy rapida en una CC, ventaja que permite una enorme capacidad de almacenamiento residente en las propiedades colectivas de los  qubits.  2 qubits tienen 4 estados: 2 apagados, 2 encendidos, 2 apagado-enecendido, 2 encendido-apagado. Cada estado tiene cierta   amplitud, que puede representar una neurona.    En el 2008, Lloyd, Aram Harrow (MIT) y Avinatan Hassidim (Bar-Ilan University, Israel), demostraron que al invertir las matrices algebraicas se aprecio una secuencia de operaciones logicas, ejecutadas por las CC.  Se concluyo entonces que las CC, son susceptibles a mas mejoras, incluyendo las interferencias del ruido.  ¿Si como muchos piensan el cerebro funciona al modo de una PC cuántica, porque no es afectda por el ruido? Tal vez, ciertos mecanismos adaptativos, hicieron mas resistentes a los cerebros al ruido externo, tal vez el cráneo y/o las meninges anulan el ruido.    La mas grande CC actual, ha sido fabricada en Canada contando con 2,000 qubits (D-Wave Systems, Vancouver), en el que cada qubit es un asa eléctrica superconductora, un pequeño electromagneto orientado hacia arriba, abajo o en superposicion.  Para hacerla funcionar, se activa  un campo magnético horizontal, que inicializa los qubits en  superposiciónes de  arriba-abajo, dejando que  los  qubits interactúen entre si. Como usualmente la mayoría de qbits están mal alineados, algunos buscan alinearlos en la misma dirección, en dirección opuesta o, bajo la influencia del campo horizontal, aunque al final los qbits  escogen la orientación mas conveniente.  Las CC actuales, tienen   problemas adicionales: ¿como extraer los datos fuera de una CC? Para ello, hay que medir previamente el estado cuantico de la maquina, de lo contrario la maquina puede colapsar. Algunos investigadores han identificado caminos cortos para extraer datos de una CC. Según Lloyd, Silvano Garnerone (University of Waterloo/Canada) y Paolo Znardi (USC), para ciertos análisis estadisticos, no se necesita entrar o almacenar los datos cuando unos pocos valores clave pueden ser suficientes.  Hasta aquí, se entiende que las CC siendo mas rapidas pueden revolucionar muchas áreas de la enseñanza-aprendizaje.  Por lo pronto se piensa que el cerebro humano es una CC y para    Perdomo-Ortiz las CC serán capaces en el futuro de autoensamblarse y serán modelos para estudiar los modelos cognitivos humanos y que mientras se avanza por este camino, las CC se iran perfeccionando.

Labels: , ,