Support independent publishing: buy this book on Lulu.

Friday, February 23, 2018


Taken from quantamagazine


Now that IBM, Intel, Google, the Chinese republic, and others invest large amounts of money in star ups and prototypes of quantum computers (CC), it is appropriate to have a futuristic vision of these, because current CC are rudimentary and confront several problems. According to the theoretical model of superstring theory, it is assumed that  particles that give shape to matter and the world are not points but rather vibrational states of more basic objects called strings. Then, a vibrational machine (CC), can be seriously affected by other vibrational states, external to it (noise), with which the processes of the CC, are affected by interference, generating erratic results.  Michel Devoret before and now Gil Kalai (Hebrew University, Jerusalem), believe that quantum computers will never work consistently and that their advantages will not be very large, because all physical systems are noisy and   that entanglements  will be corrupted by any noise from the external world. A problem that induced the Chinese scientist Jian-Wei Pan (University of Science and Technology of China USTC), to demonstrate the validity of CC, in other scenarios. Jian, who dreams of manipulating particles one by one and intertwining them at will, has managed to couple (2017) an experimental quantum satellite with a similar instrument located on the Chinese space station. Jian says that in an optical fiber the signal decreases exponentially with distance and that after 1,000 km, the absorption of light prevents the transmission of more than 1 quantum bit per century, so it is necessary to invent a quantum repeater to extend the distance of quantum communications in optical fibers. With this it will be possible to detect the state of a particle of light, before it is absorbed, to transfer it to another area and teleport it from one particle to another, being necessary for it to have quantum memories, to store the state of a photon, before transfer it. Aside from the previous thing, Jian explores the quantum communications in the space, where the absorption of the light is much smaller (80-99.99%, less than the initial signal), needing new protocols to assure the communication. Elsewhere in the world, some scientists also  follows alternate paths: Elizabeth Behrman (Wichita State University) combines quantum physics with artificial intelligence and the technology of neural networks, a combination that already surpasses several human actions: chess, big data, face recognition, language translation. Although the advances of the quantum processors are still small, the CC of 2000 qbits (D-Wave/Canada), already manipulate large  amounts of data in a single step, detecting hidden patterns. Artificial neural networks recognize patterns, with the help of neurons (basic units of computation). A neuron monitors the output of multiple different neurons, activating many neurons arranged in layers. Intermediate layers create combinations (structures, edges and geometrical shapes), while a final layer produces the output (high level image), through trial and error processes. In a classical PC these interconnections are represented by a matrix of numbers outsourced to a specialized chip: graphic processing unit. However, no classical computer makes algebraic matrices like a quantum CC does. According to Set Lloyd (MIT), the manipulation of large matrices and vectors is exponentially very fast in a CC, an advantage that allows a huge storage capacity resident in the collective properties of the qubits. 2 qubits have 4 states: 2 off, 2 on, 2 off-on, 2 on-off. Each state has a certain amplitude, which can represent a neuron. In 2008, Lloyd, Aram Harrow (MIT) and Avinatan Hassidim (Bar-Ilan University, Israel), demonstrated that by inverting the algebraic matrices, a sequence of logical operations was observed, executed by the CCs. It was then concluded that  CCs are susceptible to further improvements, including noise interference. If, as many people think, the brain works like a quantum PC, because it is not affected by noise? Perhaps, certain adaptive mechanisms made the human brains more resistant to external noise, perhaps the skull and/or the meninges cancel noise. The largest current  CC, has been manufactured in Canada with 2,000 qubits (D-Wave Systems, Vancouver), in which each qubit is a superconducting electric loop, a small electromagnet oriented up, down or superimposed. To make it work, a horizontal magnetic field is activated, which initializes the qubits in top-down superimpositions, allowing the qubits to interact with each other. As most qbits are usually misaligned, some seek to align them in the same direction, in the opposite direction or, under the influence of the horizontal field, although in the end the qbits choose the most convenient orientation. Current CC, have additional problems: ¿how to extract data outside a CC? For this, it is necessary to previously measure the quantum state of the machine, otherwise the machine may collapse. Some researchers have identified short paths to extract data from a CC. According to Lloyd, Silvano Garnerone (University of Waterloo/Canada) and Paolo Znardi (USC), for certain statistical analyzes, it is not necessary to enter or store the data when a few key values ​​may be sufficient. So far, it is understood that CC being faster can revolutionize many areas of teaching and learning. For the moment it is thought that the human brain is a CC and for Perdomo-Ortiz the CC will be able in the future to self-assemble and will be models to study human cognitive models and that while advancing along this path, the CC will be refined.


Ahora que IBM, Intel, Google, la republica China y, otros invierten grandes cantidades de dinero en star ups y prototipos de computadoras cuánticas (CC), es adecuado tener una visión futurista de estas, porque las CC, actuales son rudimentarias y confrontan varios problemas.  Según el modelo teorico de la teoría de las supercuerdas, se asume que las particulas que dan forma a la materia y al mundo -no son puntos- sino estados vibracionales de objetos mas básicos denominados cuerdas. Entonces, una maquina vibracional (CC), puede ser seriamente afectada por otros estados vibracionales, externas a ella (ruido), con lo que los procesos de las CC, son afectados por interferencias anticuerdas, generando   resultados erraticos. Ante ello, Michel Devoret antes y ahora   Gil Kalai (Hebrew University, Jerusalem), opinan que las computadoras cuánticas nunca funcionarán en forma consistente y que sus ventajas no serán muy grandes, porque todos los sistemas físicos son ruidosos y las superposiciones (entanglements), seran corrompidas por cualquier ruido del mundo externo. Un problema que indujo al científico chino Jian-Wei Pan (University of Science and Technology of China USTC), a demostrar la validez de las CC, en otros escenarios. Jian que sueña con   manipular particulas una a una y entrelazarlas a voluntad, ha logrado acoplar (2017), un satélite cuantico experimental con un instrumento similar ubicado en la estación espacial china. Jian afirma que en una fibra óptica la señal disminuye exponencialmente con la distancia y que después de 1,000 km, la absorción de la luz impide la    transmision de mas de 1 quantum bit por centuria, por lo que es necesario inventar un repetidor cuantico para extender la distancia de las comunicaciones cuánticas en las fibras opticas. Con ello será posible detectar el estado de una particula de luz, antes que sea absorbida, para transferirla a otra área y   teleportarla de una particula a otra, siendo necesario para ello disponer de memorias cuánticas, para almacenar el estado de un foton, antes de transferirlo. Aparte de lo anterior, Jian explora las comunicaciones cuánticas en el espacio, donde la absorción de la luz es mucho menor (80-99.99%, menos que la señal inicial), necesitándose nuevos protocolos para asegurar la comunicación.  En otros lugares del mundo también se   transita por caminos alternos: Elizabeth Behrman (Wichita State University), combina la física cuántica con la inteligencia artificial y la tecnología de las redes neuronales, una combinación que ya supera varias acciones humanas:  ajedrez, big data, reconocimiento de caras, traducción de idiomas.  Aunque los avances de los procesadores cuánticos aun son pequeños, las CC de 2000 qbits (D-Wave/Canada), ya manipulan grandes cantidades de datos en un solo paso, detectando patrones ocultos.   Las redes neuronales artificiales, reconocen patrones, con la ayuda de neuronas (unidades básicas de computación). Una neurona monitoriza la salida de multiples neuronas distintas, activando a muchas neuronas ordenadas en capas. Las capas intermedias crean combinaciones (estructuras, bordes y formas geometricas), mientras una capa final produce la salida (imagen de alto nivel), mediante procesos de ensayo y error.  En una PC clásica estas interconexiones son representadas por una matriz de números externalizadas a   un chip especializado: unidad de procesamiento grafico.  Empero ninguna computadora clásica, hace matrices algebraicas como lo hace un CC cuantica. Según Set Lloyd (MIT), la manipulación de grandes matrices y vectores es exponencialmente muy rapida en una CC, ventaja que permite una enorme capacidad de almacenamiento residente en las propiedades colectivas de los  qubits.  2 qubits tienen 4 estados: 2 apagados, 2 encendidos, 2 apagado-enecendido, 2 encendido-apagado. Cada estado tiene cierta   amplitud, que puede representar una neurona.    En el 2008, Lloyd, Aram Harrow (MIT) y Avinatan Hassidim (Bar-Ilan University, Israel), demostraron que al invertir las matrices algebraicas se aprecio una secuencia de operaciones logicas, ejecutadas por las CC.  Se concluyo entonces que las CC, son susceptibles a mas mejoras, incluyendo las interferencias del ruido.  ¿Si como muchos piensan el cerebro funciona al modo de una PC cuántica, porque no es afectda por el ruido? Tal vez, ciertos mecanismos adaptativos, hicieron mas resistentes a los cerebros al ruido externo, tal vez el cráneo y/o las meninges anulan el ruido.    La mas grande CC actual, ha sido fabricada en Canada contando con 2,000 qubits (D-Wave Systems, Vancouver), en el que cada qubit es un asa eléctrica superconductora, un pequeño electromagneto orientado hacia arriba, abajo o en superposicion.  Para hacerla funcionar, se activa  un campo magnético horizontal, que inicializa los qubits en  superposiciónes de  arriba-abajo, dejando que  los  qubits interactúen entre si. Como usualmente la mayoría de qbits están mal alineados, algunos buscan alinearlos en la misma dirección, en dirección opuesta o, bajo la influencia del campo horizontal, aunque al final los qbits  escogen la orientación mas conveniente.  Las CC actuales, tienen   problemas adicionales: ¿como extraer los datos fuera de una CC? Para ello, hay que medir previamente el estado cuantico de la maquina, de lo contrario la maquina puede colapsar. Algunos investigadores han identificado caminos cortos para extraer datos de una CC. Según Lloyd, Silvano Garnerone (University of Waterloo/Canada) y Paolo Znardi (USC), para ciertos análisis estadisticos, no se necesita entrar o almacenar los datos cuando unos pocos valores clave pueden ser suficientes.  Hasta aquí, se entiende que las CC siendo mas rapidas pueden revolucionar muchas áreas de la enseñanza-aprendizaje.  Por lo pronto se piensa que el cerebro humano es una CC y para    Perdomo-Ortiz las CC serán capaces en el futuro de autoensamblarse y serán modelos para estudiar los modelos cognitivos humanos y que mientras se avanza por este camino, las CC se iran perfeccionando.

Labels: , ,

Thursday, February 01, 2018



Five decades ago we witnessed the installation of a giant binary computer in Trujillo-Perú. The equipment consisted of 12 black metal boxes of 3 m high and 0.6 m wide occupying -interconnected- an area of ​​100 square meters. Why was this giant computer imported into Peru? To quickly process entrance exams for thousands of applicants to the National University of Trujillo. The chips of that time were bulky transistors. Today, that technological paraphernalia has been replaced by small computers installed in areas of 10 square meters, equipped with hundreds of chips. How did this revolution occur? Reducing and reconverting the voluminous transistors to tiny chips. A reduction in the size of the machines in exchange for better efficiency does not seem to be exclusive to the machines. The same thing seems to have happened in the brains of living beings (including humans), to whom evolutionarily it also suits smaller genomes, to be also more efficient and healthy. This is suggested by T. Ryan Gregory (University of Guelph, Canada), who studies the effects of genome size and brain complexity. To small genomes → small neurons, more neurons → more neuronal connections. According to T Ryan Gregory himself, the downsizing  of red blood cells would have increased brain complexity. However, not only the brain, but also the flowering plants (angiosperms), expressed in its abrupt origin and rapid diversification during the early Cretaceous, allowing them to compete successfully against conifers and gymnosperms. In fact, angiosperms exhibit smaller leaves with numerous stomata and more venous networks that allow them to transport the sap better, have a more efficient photosynthesis, better transpiration and greater growth. Currently, angiosperms are the dominant plants in most terrestrial ecosystems. Having smaller genomes and cells coupled with the ability to capture more CO2, suggests that genome downsizing  is a prerequisite for rapid growths in plants. Conversely, a large genome, volume and large cell size are restrictions on the number of cells capable of occupying a given space. The leaves of angiosperms with many stomata and high venous density maintain high rates of gas exchange. The total sequencing of Arabidopsis thaliana (angiosperm) has contributed much to this understanding. According to Kevin A. Simonin (San Francisco State University) and Adam B. Roddy (Yale University), A. thaliana has one of the smallest genomes (157 million base pairs). Although there are angiosperms with very large genomes, these are the only ones that have been able to reduce the size of their genomes. Simonin and Roddy,   argue in PLOS Biology, that while the first terrestrial plants evolved over 500 billion years to reach their current development, flowering plants established their predominance in just the last 100 million years (beginning in the Cretaceous), emphasizing that it is genome downsizing what counts: less DNA to generate smaller cells. In the case of human beings,  allowing the brain,  to have more neurons and more connections, conditioning more sophisticated brains.


Hace 5 décadas   presenciamos la instalación de una computadora binaria gigante en Trujillo-Perú. El equipo constaba de 12 cajas metálicas negras de 3 m de alto y 0,6 m de ancho ocupando interconectadas, un área de 100 metros cuadrados.  ¿Para qué se importó esta computadora gigante al Perú? Para procesar rápidamente los exámenes de ingreso de miles de   postulantes a la Universidad Nacional de Trujillo. Los chips de ese entonces eran transistores, voluminosos. Hoy en día, esa parafernalia tecnológica ha sido reemplazada por pequeñas computadoras instaladas en áreas de 10 metros cuadrados, dotadas de cientos de chips.   ¿Como se produjo esta revolución? Reduciendo y reconvirtiendo los voluminosos transistores a minúsculos chips.  Una reducción del tamaño de las   maquinas a cambio de mejor eficiencia, no parece ser exclusividad de las maquinas. Lo mismo parece haber sucedido en el cerebro de los seres vivos (incluyendo humanos), a quienes evolutivamente también les conviene genomas más pequeños, para ser también más eficientes y saludables. Así, lo sugiere T. Ryan Gregory (University of Guelph, Canadá), quien estudia los efectos del tamaño del genoma y la complejidad cerebral. A pequeños genomas → pequeñas neuronas, a más neuronas → más conexiones neuronales. Según el mismo T Ryan Gregory, el empequeñecimiento de los glóbulos rojos habría incrementado la complejidad cerebral. Empero, no solo el cerebro, también las plantas con flores (angiospermas), expresada en su abrupto origen y rápida diversificación durante el Cretáceo temprano, permitiéndoles competir con éxito frente a coníferas y   gimnospermas. De hecho, las angiospermas exhiben hojas más pequeñas con numerosas estomas y más redes venosas que les permiten trasportar la savia de mejor manera, tener una fotosíntesis más eficaz, mejor traspiración y mayor crecimiento. En la actualidad, las angiospermas son las plantas dominantes en la mayoría de ecosistemas terrestres. Tener genomas y células más pequeñas aunado a la facilidad para captar mayor cantidad de CO2, sugiere   que la reducción del tamaño del genoma es un prerrequisito para crecimientos rápidos en las plantas. Contrariamente, un gran tamaño del genoma, del volumen del núcleo y del tamaño celular, son   restricciones al número de células capaces de ocupar un espacio determinado. Las hojas de las angiospermas con muchísimos estomas y alta densidad venosa mantienen altas tasas de intercambio gaseoso. Ha contribuido mucho a este entendimiento la secuenciación total de Arabidopsis thaliana (angiosperma).  Según   Kevin A. Simonin (San Francisco State University) y Adam B. Roddy (Yale University), A. thaliana tiene uno de los genomas más pequeños (157 millones de pares de bases). Aunque existen angiospermas con genomas muy grandes, estas son las únicas que han sido capaces de reducir el tamaño de sus genomas.   Ambos autores sostienen en PLOS Biology, que mientras las primeras plantas terrestres evolucionaron durante 500 billones de años para alcanzar su desarrollo actual, las plantas con flores establecieron su predominancia en  apenas los últimos 100  millones de años  (empezando en el Cretáceo), enfatizando que es el tamaño y el empequeñecimiento del genoma lo que cuenta. En el caso de los humanos, menos DNA para generar células más pequeñas, permitiendo que el cerebro cuente con más neuronas y conexiones, condicionando cerebros más sofisticados.

Labels: , ,