Google
Support independent publishing: buy this book on Lulu.

Sunday, April 28, 2013

CHANGES IN SCIENCE UNDERGRADUATE EDUCATION

 
 


WATCH VIDEO

The publication in Science (19, April 2013), of several articles related to science teaching in undergraduate schools in USA, forces us to discuss three of them: a) NEUROCOGNITIVE STUDIES. To understand -according to the writer- neurocognitive developmental disorders (10% of all undergraduates), training teachers, psychologists and clinicians to recognize this entity. As several adult scientific said that  its commitment to science was forged in childhood under  influence of parents, friends, and teachers nearby, it is strange to put importance   only  to neurognitive  disorders. If learning new knowledge requires forging new neural circuits,  emphasis should be put also in healthy children to improve more, their learning. Current pedagogical programs for American children do not connect  science with real life  (health, politics), which would allow to make wise decisions in real life that  always is ahead of formal education. Not only scientists can do science. In learning  matters teach library research on topics of interest, disclosing it  to interested people, start learning with a difficult problem not scientifically clarified, gather information, promote new thinking, many hours of intense practice, internal rethinking  establishing feed back processes with  the instructor a  very effective methodology in medical schools. There are platforms for children to learn science: Fold It or Galaxy Zoo, where they are made to participate in the scientific process providing them with a healthy skepticism.

b) CARL WIEMAN AND   ADVANCED  IDEAS:  2001,  Physics Nobel Prize, now science educator, he  proposes learning science centered in undergraduate  student  like  to those carried out in universities, active learning, rather than traditional readings of 50 minutes. In the past 15 years, Wieman noted that undergraduates learned more in supervised laboratory practical work, than attending  large master classes.  Providing to students  one-one tutoring,  listening and correcting errors, following the natural ways of learning. Asking questions at the beginning of the course, discussing and solving  in small groups multiple choice questions and making answers designed to eliminate flaws. With errors identified a faculty member is called to  discuss and  correct what students think discovering how a particular concept is connected to the learning objective. Then, more answers to specific questions, discussions and finally the  development of concepts. To the above is vital  the support of units or departments that reward, hire and promote teachers. Having Wieman, become in USA: Associate Director for Science, he proposed using some federal funding of university research to fund and disseminate teaching practices in schools, an idea that did not prosper.

c) VIRTUAL LABORATORIES. At  small-scale,  physical and virtual laboratories are used in teaching science, engineering and mathematics in American schools of undergraduates using tools, data collection techniques, models and scientific theories, promoting interactions with the real world, using selections from the literature to compare the value of physical and virtual research, being  the goal  the acquisition of conceptual knowledge.  Virtual laboratories appear to be as good as  physical, the latter being better  only in measuring errors. Although in physical laboratories are  highly valued tactile experiences (embodied cognition), the important thing  is the acquisition of conceptual knowledge. Tactile experiences seem however, very important for children in kindergartens. Although currently the serial combination: virtual-physical laboratory, seems to be the best, there are experiences that support otherwise.

CAMBIOS EN LA ENSEÑANZA DE LAS CIENCIAS
La publicación en Science (19, Abril 2013), de  varios artículos  relacionados con la enseñanza de ciencias en escuelas de pregraduados en  USA, nos obliga a comentar 3 de ellos : a) ESTUDIOS NEUROCOGNITIVOS.  Para comprender -según el articulista- desordenes del desarrollo neurocognitivo (10% del total de pregraduados), entrenando  a profesores, psicólogos y clínicos a reconocer esta entidad.   Siendo opinion de varios científicos que  su  apego a la ciencia se forjo en la  infancia, por  influencia de profesiones de  padres, amigos, familiares y maestros cercanos,  extraña que solo se de importancia a los desordenes neurognitivos.  Si  el aprendizaje  de nuevo conocimiento  requiere   forjar  nuevos circuitos neuronales, el énfasis debería ser puesto también en  niños sanos para mejorar mas, sus aprendizajes.  Los programas pedagogicos actuales para niños americanos no  realizan la conexión ciencia-vida real (salud, política), que permitiria tomar sabias decisiones en  la vida real que  siempre  va  delante de la educación formal. No  solo los científicos pueden hacer ciencia.  Importa enseñar investigación bibliográfica en tópicos de interés, divulgarlos a personas interesadas, iniciar el aprendizaje con problema difíciles, no clarificados científicamente, acopiar información, propiciar  nuevas formas de pensar,  muchas horas de intensa practica, reflexión interna, feed back con el instructor y solucionarlos,  metodología muy efectiva en las escuelas medicas.    Existen  plataformas para niños para aprender ciencia : Fold It o Galaxy Zoo, en los se les hace participar del proceso cientifico proveyéndolos  de  un escepticismo sano. 

b) LAS AVANZADAS OPINIONES DE CARL WIEMAN.  Premio Nobel de Fisica 2001,  ahora educador de ciencia, propone aprendizajes de ciencia centrados en el estudiante similares a los realizados en las universidades, aprendizaje activo, mas que lecturas tradicionales  de 50 minutos.. En los pasados 15 años, Wieman  noto  que los pregraduados  aprendian mas en  trabajos practicos de laboratorio supervisados,   que en extensas charlas magistrales. Proveyendo  guías de alumnos uno-uno, ejerciendo tutorias,.   escuchando y corrigiendo errores, siguiendo las  formas naturales de aprender.     Realizando preguntas al inicio del curso, discutiendo y resolviendo   luego  en pequeños grupos, preguntas de  multiple elección y   respuestas destinadas a eliminar fallas. .  Identificados los errores, un  miembro de la facultad corrige y  discute,  lo que los alumnos  piensan descubriendo   como un  concepto  determinado se conecta  al objetivo del aprendizaje. Luego, mas respuestas y discusiones  a preguntas especificas  y finalmente elaboración de conceptos.  Para lo anterior es vital el apoyo de las  unidades o departamentos que premian, contratan y  promueven a profesores.   Habiendo Wieman, llegado a ser  en USA: Director Asociado para la Ciencia,   propuso emplear   algunos fondos federales  de investigacion de las universidades  para financiar y difundir las  practicas de enseñanza en las escuelas,   idea que no prospero.
c) LABORATORIOS VIRTUALES. Aunque en  pequeña escala ya  se emplean laboratorios fisicos y virtuales en la enseñanza de ciencia, ingeniería y matematicas, en escuelas americanas de pregraduados  empleando  herramientas, tecnicas de recoleccion  de datos,  modelos y teorias científicas, promoviendo  interacciones con el mundo real, recurriendo  a  selecciones de la literatura  para  contrastar el valor  de las investigaciones físicas y virtuales, siendo la  meta  la adquisición de conocimientos conceptuales,  Los laboratorios virtuales parecen ser tan buenos como los físicos, siendo estos últimos solo superiores en la medición de  errores. Aunque en los laboratorios físicos se valora mucho las   experiencias tactiles (embodied cognition), lo importante es la adquisicion de conocimientos conceptuales. Las  experiencias tactiles parecen ser sin embargo,  muy importantes para niños en kindergartens. Aunque de momento   la combinacion seriada : laboratorio virtual-fisico,  parece ser  la mejor,  existen experiencias que avalan lo contrario.      

Labels:

Tuesday, April 23, 2013

AUSTRALOPITHECUS SEDIBA




11 papers recently papers published in Science (April, 2013), offer new findings regarding bony fossil hominid of Australopithecus sediba (1.3 m, smaller young body, elongated arms, ~1.78-1.95 Ma) : a) Employment by Lee Berger and his team of GPS technology to locate isolated arboreal remnants of sites within extensive desertic savannas in Malapa (South Africa). Berger's faith in this technology paid off in 2008 finding 2 skeletons (MH1 and MH2), nearly complete of Au. sediba, something hitherto almost impossible to find by other researchers. b) Although Berger argues that Au. sediba is ancestral to the genus Homo or ancestral species closely related, because it is half human-half chimpanzee or gorilla : teeth, length of arms and legs (to swing in trees), narrowing of the upper thorax resemble early Australopithecus. Conversely, short hands, jaw, skull and width of lower thorax evolving into humans patterns and pelvis adapted to bipedalism, show an Au. sediba with more human locomotion patterns that Homo habilis.

Berger's proposal is open to debate because there were several evolutionary plans to genus Homo. The H. neardenthalis, for example, became extinct. Nothing guarantees that Au. sediba also became extinct and that other species eventually evolved into H. sapiens sapiens. Lack study more fossils in Africa cradle of humanity, as Darwin predicted. c) Au. Sediba, walked upright and dental and pelvis changes occurred before changes in its limbs and cranial capacity. d) For us the most important of these studies is the confirmation of mosaic bone evolution : Australopithecus-Genus Homo -by necessity-. The reason for early evolution of hands and pelvis into human patterns appear to be due to the need to leave arboreal spaces to effectively penetrate into the savannas to feed on animal flesh, working in groups, using improved hands, making tools and hunting with them. Evolution of the brain would come later. That’s another history.

AUSTRALOPITHECUS  SEDIBA

Los recientes 11 papers publicados en Science (Abril, 2013), tocante a nuevos hallazgos en fosiles oseos del homínido Australopithecus sediba (1,3 m, cuerpo pequeño de adulto joven, brazos alargados, ∼1.78-1.95 millones de años a.C), importan por: a) El empleo por Lee Berger y su equipo de tecnología GPS para ubicar remanentes de sitios arbóreos aislados al interior de extensas savanas desiertas en Malapa (Africa del Sur). La fe de Berger en esta tecnología dio sus frutos al hallar en el 2008: 2 esqueletos (MH1 y MH2), casi completos de Au. sediba, algo hasta entonces casi imposible de hallar por otros investigadores. b) Aunque Berger sostiene que Au. sediba es ancestral al genero Homo o cercanamente relacionado a especies ancestrales, porque es mitad humano-mitad chimpancé o gorila : dientes, longitud primitiva de brazos y pies (para columpiarse en arboles), y estrechez del torax superior semejan a tempranos Australopithecus. Contrariamente, sus manos cortas, mandíbulas, cráneo y torax inferior ancho evolucionando hacia moldes humanos y pelvis adaptada al bipedalismo, muestran a un Au. sediba con patrones de locomoción mas humanos que los Homo habilis.

La proposición de Berger esta abierta al debate porque existieron varios planes evolutivos hacia el genero Homo. Los H. neardenthalis, por ejemplo se extinguieron. Nada garantiza que Au. sediba también se extinguiera y, que otras especies evolucionaran finalmente hacia H. sapiens sapiens. Falta estudiar mas fosiles en Africa cuna de la humanidad, como lo pronosticara Darwin. c) Au. Sediba, caminaba erecto y los cambios dentarios y en su pelvis ocurrieron antes que los cambios en sus miembros y capacidad craneal. d) Para nosotros lo mas importante de estos estudios es la confirmación de la evolucion osea Australopithecus-Genero Homo, en forma de mosaico -por necesidad-. La razón para que manos y pelvis evolucionaran tempranamente hacia patrones humanos parece deberse a la necesidad de dejar los espacios arbóreos para incursionar de modo eficaz en las savanas para alimentarse con carne animal, operando en grupos, empleando manos mejoradas, fabricando herramientas y cazando con ellas. La evolución del cerebro vendría despues. Esa es  otra historia.

Labels:

Monday, April 22, 2013

THE CYCLIC UNIVERSE


Looking Fritz Zwicky in 1933, the curvature of certain spatial areas of visible matter and alteration of orbital velocities of galaxies, he assumed that such phenomena were produced by gravitational effects of a matter that permeated the entire universe which he called dark matter because it does not interacts with light and does not emit enough electromagnetic radiation to be detected. Today it is estimated that ordinary matter accounts for 4.9% of observable universe, dark matter :21% and dark energy :70%. Although most theoretical physicists argue that this energy is a form of matter that promotes accelerating expansion of the Universe it is unknown its ultimate nature. Dark energy may become dark matter if it is hit by baryonic particles, leading to particle excitations in some type of dynamic field (quintessence). Although the composition of this hypothetical dark matter is unknown, it is assumed that it is constituted by baryonic dark matter, ordinary and heavy neutrinos, neutralinos, WIMPS, axions, astronomical bodies such as dwarf stars, certain planets collectively called MACHO, non bright gas clouds and others. A candidate for dark matter is the neutralino which after colliding with his couple would produce an excess of charged particles easily detected by AMS-02. Other candidates are strangelets, endowed with very large mass. None of the above items are part of the standard model of particle physics.

To prove the existence of dark matter was installed in the International Space Station the Alpha Magnetic Spectrometer (AMS), provided with a magnet capable of creating a magnetic field 3000 times stronger than the Earth, whose conduction was commissioned to the Nobel Prize Samue Ting. After 18 months of intense work, Ting announced the detection of an unusual excess of positrons (destroy of antimatter particles, create positrons) in cosmic ray flux (containing high energy particles before interacting with Earth's atmosphere), analyzed by the AMS. Ting argues that detected positrons could have been produced by: a) collision of two dark matter particles b) rotating stars that emit radiation. The AMS, will allow to understand the origin of the universe whose genesis requires equal amounts (principle of symmetry) of matter and antimatter (counterpart of electrons), to analyze dark matter and to measure cosmic rays. Following the logic of current knowledge and several physical hypothesis: to every action there is a reaction, it could be assumed that the Big Bang could have been generated from a previous supercondensation of energy particles, similar to which generate black holes. The presence of dark energy in the universe limiting its expansion would be the prelude to the obvious: the limited universe will finish shrinking in one point (Big Crunch), only to re-occur again and again trough a cyclical process known as Big Bang.

EL UNIVERSO CICLICO

Al observar Fritz Zwicky en 1933, la curvatura de ciertas areas espaciales de materia visible y la alteración de las velocidades orbitales de las galaxias, supuso que tales fenomenos eran producidos por efectos gravitacionales de una materia que permeaba todo el Universo a la que denomino materia oscura, porque no interactua con la luz y no emite suficiente radiación electromagnética para ser detectada. Hoy se calcula que la materia ordinaria da cuenta de un 4,9%, del universo observable, la materia oscura un 21% y la energía oscura un 70%. Aunque la mayoría de físicos teoricos sostienen que esta energía, es una forma de materia que induce la aceleración de la expansión del Universo se desconoce su naturaleza última. No obstante, la energía oscura puede convertirse en materia oscura si es golpeada por partículas bariónicas, conduciendo a excitaciones de partículas en algún tipo de campo dinámico (quintaesencia). Aunque se desconoce la composición de la hipotética materia oscura, se asume que esta constituida por materia oscura no barionica: neutrinos ordinarios y pesados, neutralinos, WIMPS, axiones, cuerpos astronómicos como las estrellas enanas, ciertos planetas colectivamente llamados MACHO, nubes de gases no luminosos y otros. Un candidato para la materia oscura es el neutralino que al colisionar con su par produciría un exceso de partículas cargadas fáciles de ser detectadas por el AMS-02. Otros candidatos son los strangelets, dotados de masa muy grande. Ninguno de los elementos mencionados forma parte del modelo standard de la física de partículas.

Para demostrar la existencia de la materia oscura se instalo en la Estación Espacial Internacional, el Alpha Magnetic Spectrometer (AMS), proveida de un iman capaz de crear un campo magnético 3000 veces más intenso que el terrestre, cuya conducción fue encargada al Premio Nobel Samuel Ting. Tras 18 meses de intenso trabajo, Ting anuncio la detección de un inusual exceso de positrones (al destruirse entre si las partículas de antimateria, crean positrones), en el flujo de rayos cosmicos (contienen partículas de alta energía antes de interactuar con la atmosfera terrestre), analizados por el AMS. Ting arguye que los positrones detectados podrian haber sido producidos por : a) colision de 2 particulas de materia oscura b) por estrellas rotatorias que emiten radiación. El AMS, permitira comprender el origen del universo cuya génesis requiere cantidades iguales (principio de simetria), de materia y antimateria (contraparte de los electrones), analizar la materia oscura y medir los rayos cosmicos. Siguiendo la lógica de los conocimientos e hipótesis físicas actuales : a toda acción corresponde una reacción, es de suponer que el Big Bang podría haberse generado a partir de una previa supercondensacion de partículas y energía similar a los producidos en los agujeros negros. La presencia de energía oscura conteniendo la expansión del universo solo seria el preludio de lo obvio : que el universo es limitado y terminara contrayendose en un punto (Big Crunch), solo para volver a producir una y otra vez, el proceso cíclico conocido como Big Bang.

Labels:

Saturday, April 13, 2013

CAPTURE AND UTILIZATION OF AN ASTEROID





Now that American NASA will try to capture around the 2021 a small near-Earth asteroid, to place it in moon’s orbit, to take samples of it and to study its behavior (to avoid collisions), with a special robotic machine, the question arises of which will be the next step. A detailed analysis of the asteroid will be vital -according to our point of view- to plan the following step : a) Although the space conquest is centered in discovery and exploitation of minerals, the insertion of a telescope on the same rocky nucleus of a comet is not discarded (Halley is the ideal being the but studied). b) Spatial operation that should be carried out to little of the exit of the comet of its elliptic sun’s orbit in order to minimize the effects of sublimation. c) The element or mixes of them with which will be built such telescope must be sufficiently resistant to heat (sun) and to the cold, influencing in it, the composition of previously captured asteroids.


CAPTURA DE UN ASTEROIDE


Ahora que la NASA intentara capturar alrededor del 2021 un pequeño asteroide cercano a la Tierra, ubicarlo en la orbita lunar, tomar muestras de el y estudiar su comportamiento (evitar colisiones), con una suerte de cazamariposas robotico espacial surge la pregunta de cual sera el siguiente paso. Un análisis detallado del asteroide será vital -según nuestro punto de vista- para planificar el siguiente paso: a) Aunque la conquista espacial esta centrada en el descubrimiento y explotación de minerales, no se descarta la inserción de un telescopio en el mismo nucleo rocoso de un cometa (el Halley es el ideal por ser el mas estudiado). b) Esta operación espacial debería realizarse a poco de la salida del cometa de la orbita elíptica solar a fin de minimizar los efectos de la sublimacion. c)El material (o mezcla de ellos), con el que seria construido tal telescopio tendriá que ser lo suficientemente resistente al sol y al frio, influyendo en ello, la composición de los asteroides capturados previamente.

Labels:

Thursday, April 11, 2013

CHRONIC ESTRES AND TELOMERES




After reading in the NYT, an article about the achievements and plans of the Australian Elizabeth H Balckburn (Prize Nobel Winner Medicine, 2009), we highlight the relationship settled down by the researcher between short human cell telomeres and emotional stress, the chronic one and post-traumatic one, besides other mental illnesses. Until recently, most of scientists associated short telomeres to certain illnesses (diabetes, heart failure), long telomeres to cancer and those of normal size to a state of good health. Telomeres are highly repetitive, non coding, extreme chromosomal regions of DNA, dedicated to maintain structural stability of chromosomes and a lingering time of life of cellular stocks.

The Blackburn that has designed a cheap test to measure them, tries now to put them in doctors' hands as a predictor test of present or hidden illnesses. Of being proven the association between telomeres and acquired stress it could be caused by epigenetic changes (changes in genetic expression, for addition of methyl (-CH3) or acethyl (- CH3CHO), groups to parts of the DNA, inactivating regions of the DNA without alterations in the sequence of the same one. In such way: a) Mind-body interaction theory would revive, although to tell the truth and according to last advances in neuroscience almost all mental illnesses seem to have a biological substratum. b) Then, healthy lifestyles, nutritious diets, exercise, appropriate weight, practices of relaxation systems in workplaces, yoga, etc, should be part of a national system of preventive health.

ESTRES CRONICO y TELOMEROS

Tras leer en el NYT, un articulo acerca de los logros y planes de la australiana Elizabeth H Balckburn (Premio Nobel de Medicina 2009), destacamos la relacion establecida por ella entre los telomeros celulares humanos cortos y el estrés emocional, el crónico y el post-traumatico además de otras enfermedades mentales. Hasta hace poco, la mayoría de científicos asociaba los telomeros cortos a ciertas enfermedades (diabetes, males del corazón), los telomeros largos al cáncer y los de tamaño normal a un estado de buena salud. Los telomeros son los extremos cromosomales, regiones de DNA no codificante, altamente repetitivas, destinadas a mantener la estabilidad estructural de los cromosomas y un tiempo de vida prolongado de las estirpes celulares.

La Blackburn que ha diseñado un test barato para medirlos intenta ahora ponerlos en manos de los médicos como un test predictor de enfermedades presentes u ocultas. De comprobarse su asociación con el estrés adquirido se trataría de cambios epigeneticos (cambios en la expresión genética, por adicion de grupos metilo(-CH3) o acetilo (-CH3CHO), a partes del ADN, inactivando regiones del ADN sin alteraciones en la secuencia del mismo. De ser asi: a) El postulado de las interacciones mente-cuerpo reviviría, aunque a decir verdad y de acuerdo a los avances en neurociencia casi todas las enfermedades mentales parecen tener un substrato biológico. b)Entonces los estilos de vida saludables, las dietas nutritivas, el ejercicio, mantención de peso adecuado, practica de sistemas de relajación en el trabajo, el yoga, etc, deberían formar parte de sistemas nacionales de salud preventiva.

Labels:

Saturday, April 06, 2013

DESIGNER BABY


Certain people and children suffer of mitochondrial’s illnesses (body asthenia, muscular weakness, blindness, deafness, epilepsy, heart failure, early dementia, death), due to genetic mutations of their mitochondrial DNA, organella that provides body energy under normal conditions. The novelty of these illnesses, is that it is sought to give green light in England to genetic technologies that would allow those affected and their descendant free of its mitochondrial defects, forever. Although bioethicists and critics, argue that children to be born with these techniques, would have 3 parents, the real thing as showed by evolution through thousands of years  is that given the scarce number of genes (37), mitochondrias doesn't intervene in the design of an individual (parents' paper). The hypothesis that in ancestral times, a but big cell dedicated to fast self-reproduction engulfed another smaller one that carried mitochondrias dedicated to generate energy, established also separated functions to each cell until today.

The technique consists in: I) To remove nucleus and chromosomes with genetic information of an donated egg (first mother), retaining healthy mitochondrias. II) Insert in this egg, the nucleus of the egg of an affected mother (second mother), before or after fertilization 3) Fertilized egg with husband's sperm (third parent), is implanted in the affected mother's uterus. The critics wonder if the following step: a) Will be to replace the entirety of nuclear genes, creating designer babies, a radical form of preventing illnesses, with human prone to live but of 100 years of useful life. b) The opening of a new era of consumption genetics, with disastrous eventualities for humanity for possible inadequate manipulations of the lines that give life to new humans or due to unexpected epigenetic changes. c) Possibility that certain elites or governments develop political of improvement and racial extremism. d) Possibility that certain parents choose frivolous genetic features, but that healthy.

BEBES A DISEÑO

Ciertas personas y niños padecen de enfermedades mitocondriales (astenia corporal, debilidad muscular, ceguera, sordera, epilepsia, insuficiencia cardiaca, demencia temprana, muerte), por mutaciones genéticas de su DNA mitocondrial, organela que en condiciones normales proporciona energía corporal. Lo novedoso de estas enfermedades, es que se pretende dar luz verde en Inglaterra a tecnologías genéticas que permitirían que las afectadas y su descendencia queden para siempre libres de sus defectos mitocondriales. Aunque bioeticistas y críticos, arguyen que los niños por nacer con estas técnicas, tendrían 3 padres, lo real como lo demuestra la evolución a traves de miles de años es que por el escaso numero de genes (37), las mitocondrias no intervienen en el diseño de un individuo (papel de padres). La hipótesis de que en tiempos ancestrales, una celula nucleada mas grande dedicada a veloces autoreproducciones engullo a otra menor que portaba mitocondrias dedicadas a generar energía, estableció asimismo funciones separadas a cada celula hasta hoy.

La técnica consiste en : I) Remover nucleo y cromosomas con informacion genetica de un ovulo donado (primera madre), reteniendo las mitocondrias saludables. II) Insercion en este ovulo, del nucleo del ovulo de una madre afectada (segunda madre), antes o despues de la fertilizacion 3) El ovulo fertilizado con esperma del esposo (tercer padre), se implanta en el utero de la madre afectada. Los criticos se preguntan si el siguiente paso : a) Será reemplazar la totalidad de los genes nucleares, creando bebes a diseño, una forma radical de prevenir enfermedades, con humanos pronos a vivir mas de 100 años de vida útil. b) La apertura de una nueva era de genética de consumo, con eventualidades nefastas para la humanidad por posibles manipulaciones inadecuadas de las líneas que dan vida a nuevos humanos o por cambios epigeneticos impensados. c) Posibilidad de que ciertas elites o gobiernos desarrollen politicas de mejoramiento y extremismo racial. d) Posibilidad de que ciertos padres elijan rasgos genéticos frívolos, mas que saludables.

Labels:

Monday, April 01, 2013

GOOD MARRIAGE: TELESCOPES AND COMPUTING





From the first telescopes in which size and sharpness of images rested in quality and neatness of concave lenses and mirrors (1590 a.C.), until the recent ones, with dishes growing diameter (> 10 m), until the current based on observations in range of infrared and ultraviolet, we have arrived to the functioning (September/2012), of the best telescope of the world: ALMA (Chajnantor/Atacama/Chile: 5060 a.s.l. Chile. Large Millimeter-submillimeter Array). The best, given its highest level of image detail due to use of I) Interferometry (gathering of radio signals from the space for 2 or more dishes, combining them to achieve greater precision and sharpness. II) As long as larger diameter of dishes, greater accuracy, ALMA will enlarge soon its number from 55 to 66, which will operate as a single. Any telescope with a single dish has problems on confronting millimétric and submillimétric lenghts. The captured radiation is not ordinary visible light, it is light between infrared and microwaves.

III) As all ALMA'S dishes must point simultaneously to the same region of the sky, it is necessary to carry out displacements of the same ones with enormous trucks to pass from a compact configuration to another wider. ALMA, captures radiation of distant astronomical objects directing detectors in milli-submillimétric wavelenghts, useful methodology to study early galaxies, genesis of solar systems, hidden planets for stellar powder shining in milli-submillimetric range of the spectrum. Although galaxies but distant are identified by smaller wavelengths, their emissions are enlarged later (millimeter-submillimeter), when crossing an universe in constant expansion. Combining signals of all dishes, ALMA simulate to have a single dish of 16 km, processing electromagnetic radiation later in a supercomputer that converts analogical signals in digital. Incoming optical signals are demultiplexed and reformatted before entering to the Correlator of ALMA'S main group. IV) This way, lenses and mirrors of long ago, have been replaced by more efficient digital signals, computers and softwares. What comes then: telescopes with 500 mirrors working like one alone and, the speed and clarity that will provide quantum computers.

BUEN MATRIMONIO: TELESCOPIOS Y COMPUTACION


Desde los primeros telescopios en los que el tamaño y nitidez de imagenes descansaba en la calidad y pulcritud de lentes o espejos cóncavos (1590), hasta los recientes, con crecientes incrementos de diámetro (> 10 m) de sus antenas, hasta los actúales basados en observaciones en rango del infrarrojo y ultravioleta, hemos arribado al funcionamiento (Setiembre/2012), del considerado mejor telescopio del mundo : ALMA (Chajnantor/Atacama/Chile: 5060 msnm, Chile. Large Millimeter-submillimeter Array). Un telescopio superior dado su mayor nivel de detalle de imagen merced al uso de I) Interferometria (recolección de señales de radio del espacio por 2 o más antenas, combinándolas para lograr mayor precision y nitidez. II) En tanto a mayor diametro de antenas mayor precisión, ALMA ampliara pronto su numero :de 55 a 66, las que funcionaran como una sola. Cualquier telescopio con una sola antena tiene problemas al confrontar longitudes milimétricas y submilimétricas. La radiacion captada no es luz visible ordinaria, es luz entre el infrarojo y las microondas.


III) Como todas las antenas de ALMA deben apuntar simultáneamente a una misma región del cielo, es necesario realizar desplazamientos de las mismas con enormes camiones para pasar de una configuración compacta a otra mas amplia. ALMA, capta la radiación de objetos astronómicos distantes dirigiéndolos a detectores en longitudes de onda mili-submilimétricas, metodología útil para estudiar galaxias primigenias, génesis de sistemas solares, planetas ocultos por polvo estelar helado brillando en rango mili-submilimetro del espectro. Aunque las galaxias mas distantes son identificadas por longitudes de onda mas pequeñas, sus emisiones son posteriormente ensanchadas (milimetro-submilimetro), al cruzar un universo en expansion constante. Combinando las señales de todas las antenas, ALMA simula tener una sola antena de 16 km, procesando después la radiación electromagnética en una supercomputadora que convierte las señales analógicas en digitales. Las señales ópticas entrantes son demultiplexadas y reformateadas antes de entrar al Correlacionador del conjunto principal de ALMA. IV) Asi, lentes y espejos de antaño han sido sustituidos con mas eficacia por señales digitales, computadoras y softwares. Lo que se viene son telescopios con 500 espejos funcionando como uno solo y, la rapidez y nitidez proporcionada por computadoras cuanticas.

Labels: