Este blog pretende recopilar las noticias más representativas de los avances de la física de estos últimos años, antes de que desaparezcan de la web.

jueves, 27 de septiembre de 2018

La odisea de Katrin, una ‘báscula’ gigante para la partícula más pequeña



Tras un viaje accidentado por Europa, arranca el experimento que medirá la masa del neutrino

El 25 de noviembre de 2006, un objeto gigantesco atravesó la pequeña localidad alemana de Eggenstein-Leopoldshafen ante la mirada de miles de curiosos. El objeto es una de las mayores cámaras de vacío del mundo: 200 toneladas de acero inoxidable con forma de zepelín, de 24 metros de largo y 10 de diámetro. Este aparato científico —que llegaba ese día a su destino en el campus del Instituto Tecnológico de Karlsruhe— se construyó en la ciudad de Deggendorf, a unos 350 kilómetros de allí, pero en realidad concluía un viaje homérico de dos meses y casi 9.000 kilómetros en barco por dos ríos y cuatro mares. Se trata de un espectrómetro, el instrumento estrella para el recién inaugurado experimento Katrin (Karlsruhe Tritium Neutrino Experiment), un proyecto internacional que tiene por objetivo medir definitivamente la masa de las partículas más ligeras y escurridizas del universo: los neutrinos.


“En cada centímetro cúbico del universo hay 336 neutrinos”, dice Kathrin Valerius, coordinadora de análisis del experimento. “Superan a las demás partículas por un factor de mil millones; solo les ganan en abundancia los fotones, las partículas de luz”. Los neutrinos no tienen carga eléctrica e interactúan tan débilmente con la materia que, hasta hace veinte años, los científicos pensaban que tampoco tenían masa. Sin embargo, descubrieron que los neutrinos se transforman de uno de los tres tipos conocidos a otro mientras viajan, algo que nunca podría ocurrir con una partícula incorpórea.

“Katrin es un experimento para medir la masa absoluta de los neutrinos, un reto importante porque tienen un papel único en cosmología y física de partículas”, explica Guido Drexlin, director del proyecto. Para lograr este objetivo, Katrin analiza el espectro energético de electrones escupidos en la desintegración beta del tritio, un isótopo radiactivo de hidrógeno. En la desintegración beta, uno de los neutrones que forman el núcleo de tritio se convierte espontáneamente en un protón y libera energía en la forma de un electrón y un neutrino. El neutrino, rebelde, se pierde para siempre, pero el electrón, si sale con suficiente velocidad, atravesará la cámara de vacío magnetizada para llegar a un detector, lo cual permite medir su energía. A partir de este dato, se puede calcular cuánta energía se llevó el neutrino. La equivalencia famosa de E=mc2 da, finalmente, su masa.

El experimento arrancó en junio de este año, tras una “maratón” de diseño, construcción, transporte y acabados. “Yo estuve en la primera reunión de la colaboración, al comienzo del siglo”, recuerda Drexlin. “En estos 17 años hemos tenido que conseguir el dinero —más de 60 millones de euros— y, lo que más costó, conseguir que nos construyeran los componentes necesarios”, añade. Valerius trabajó en el diseño del enorme espectrómetro principal para su tesis de doctorado. La empresa que lo construiría, DWE Reactors, tiene fábrica en Deggendorf, cerca de Múnich y a unas cuatro horas en coche de Karlsruhe, donde debía instalarse obligatoriamente Katrin por proximidad al laboratorio de tritio que ya existía. Las descomunales dimensiones del instrumento impidieron su transporte por carretera, de modo que fue necesario circunvalar el continente europeo en barco.


Por ríos y mares
La odisea de Katrin, una ‘báscula’ gigante para la partícula más pequeña

El espectrómetro de Katrin zarpó de Deggendorf el 28 de septiembre de 2006. Recorrió el río Danubio hasta su desembocadura en el Mar Negro. Desde ahí atravesó el Mediterráneo y viajó rumbo norte hacia Países Bajos, donde remontó las corrientes del Rin hasta el puerto alemán de Leopoldshafen. El día número 63 completó los últimos siete kilómetros, entre cultivos y edificios rurales, por tierra. El viaje, de casi 9.000 kilómetros, tuvo sus percances. En la frontera de Alemania con Austria, el puente de una esclusa bloqueaba el paso al monstruo metálico. El equipo tuvo que comprar 1.200 toneladas de grava y 800 litros de agua para lastrar la embarcación y rebajar su altura. Más tarde, una tormenta arrancó la cubierta protectora del instrumento, exponiendo el acero al agua y el salitre, aunque Valerius confiesa que “desde entonces las fotos empezaron a salir más bonitas”.

“La llegada del espectrómetro es el recuerdo más vívido que tengo de toda mi carrera de investigación”, rememora Valerius. Ese día salieron a la calle 30.000 personas en un pueblo de 15.000 habitantes. Agotaron toda la comida y hubo que llamar a un camión de salchichas para alimentar a los espectadores. “La llegada del espectrómetro fue un hito enorme, pero no era el componente más difícil de construir”, señala Drexlin. Los científicos todavía tuvieron que esperar 10 años más para la llegada de unos criostatos especiales que se instalarían en la fuente de tritio.

El laboratorio de tritio almacena esta sustancia —que sale a 30.000 euros por gramo— para investigar la producción de energía por fusión nuclear. Ahora también se encarga de abastecer a la báscula de neutrinos. “Estamos en una pequeña campaña de calibración en la que utilizamos electrones de energía conocida”, explica Magnus Schlösser, un investigador de ese laboratorio. “En marzo empezaremos a utilizar el tritio en pequeñas cantidades y alcanzaremos el 100% en primavera de 2019”.

Por ahora, se sabe que la masa del neutrino está entre 10 milielectronvoltios y 2 electronvoltios (la masa de las partículas se mide en unidades de energía): es al menos dos millones de veces más ligero que el electrón. En cinco años, los científicos de Katrin podrán anunciar la ansiada cifra, si es mayor que 0.2 electronvoltios. Esperan entender cómo el neutrino obtiene su masa; no creen que sea por interacción con el bosón de Higgs, como toda la demás materia. Para Valerius, apasionada de la cosmología, la promesa de Katrin es épica: “Yo quiero saber cómo afectan los neutrinos a la evolución del universo, como la formación de las galaxias”, dice. “Realmente no tenemos ni idea de qué está hecho el universo”.
Desembarco del espectrómetro principal de Katrin en el puerto de Leopoldshafen, el último día de su viaje. ampliar foto



Desembarco del espectrómetro principal de Katrin en el puerto de Leopoldshafen, el último día de su viaje. KIT

jueves, 2 de agosto de 2018

Un caso de canibalismo galáctico en el vecindario de la Vía Láctea

Un grupo de astrónomos descubre lo que parecen los restos de una gran colisión entre una galaxia que ya no existe y Andrómeda

Dentro de 4.000 millones de años, Andrómeda colisionará contra la Vía Láctea. Imágenes de telescopios como el Hubble y modelos matemáticos prevén la fusión entre las dos mayores galaxias del Grupo Local, la gran familia galáctica que dominan con su descomunal capacidad de atracción gravitatoria. Pese a lo que nos puedan sugerir las imágenes de los telescopios, las galaxias no son densísimas bolas de luz. Los millones de estrellas que contienen están separados por distancias inimaginables y cuando se produzca el choque entre las galaxias no cabe esperar impactos entre sus mundos. Más bien, será una reorganización progresiva que acabará por formar una gigantesca galaxia elíptica y mandará al Sistema Solar a una región aún más periférica de la que ocupa en la Vía Láctea.




Para saber lo que sucederá, puede ser útil mirar al pasado. Esta semana, en la revista Nature Astronomy, un grupo de científicos ha publicado lo que puede considerarse un trabajo detectivesco del tiempo profundo. Observando a Andrómeda, han concluido que hace 2.000 millones de años cometió un acto de canibalismo galáctico. En aquel tiempo, junto a Andrómeda y la Vía Láctea, había una tercera gran galaxia en el Grupo Local.

M32p, una galaxia con un nombre mucho más anodino que sus compañeras vivas, fue despedazada por Andrómeda, pero dejó un rastro de pistas que ahora han reconstruido astrónomos de la Universidad de Michigan (EE UU). Según cuentan, en torno a la galaxia caníbal existe un gran halo de estrellas que ocupan un espacio mayor que la misma Andrómeda y junto a ella, una extraña galaxia extremadamente compacta, con una densidad de estrellas que no se encuentra en casi ningún otro lugar del universo. Tratar de explicar el origen de este objeto misterioso fue el inicio de la investigación. Los autores del trabajo que aparece en Nature Astronomy afirman que esa galaxia satélite, conocida como M32 y que podría confundirse con una pequeña galaxia elíptica, es en realidad el núcleo de la galaxia atrapada por Andrómeda.

Además del halo de estrellas con restos de la antigua galaxia y el engrosamiento del disco de Andrómeda, los autores señalan entre los indicios de la fusión un estallido de formación de nuevas estrellas que coincide con el periodo de hace 2.000 millones de años en el que se encontraron las dos galaxias.

Las fusiones entre galaxias no son algo extraño, pero el tamaño de esta sí que la hace excepcional. M32p era al menos 20 veces mayor que cualquier galaxia engullida por la Vía Láctea a lo largo de su historia. Según explicaba Eric Bell, investigador de la Universidad de Michigan y coautor del trabajo, les sorprendió saber que nuestra galaxia “tenía un pariente de gran tamaño del que nunca habíamos sabido nada”. Estudios como el suyo también pueden cambiar la idea sobre lo que sucede cuando dos galaxias se unen. Entre otras cosas, se ha observado que Andrómeda mantiene su forma espiral, con los brazos característicos que también tienen nuestra galaxia. En principio, se habría esperado que la colisión hubiese producido una galaxia elíptica, con una forma más parecida a una esfera, pero los brazos de Andrómeda resistieron.

La acumulación de datos sobre Andrómeda y sobre nuestra propia galaxia está cambiando la idea que se tiene sobre cómo será su futuro. Hasta este mismo año, se creía que era mucho mayor que la Vía Láctea y que acabaría absorbiéndola cuando llegase el encuentro. Sin embargo, un artículo publicado en Monthly Notices of the Royal Astronomical Society en febrero calculaba que las dimensiones de las dos galaxias eran similares. Esta nueva información hará que debamos replantearnos lo que sucederá en el momento de ese choque que parece ineludible y llegará dentro de 4.000 millones de años, más o menos el mismo tiempo que lleva existiendo la Tierra.

La primera nave que tocará el Sol

Todo listo para el lanzamiento de la sonda 'Parker’, la primera que penetrará en la atmósfera de una estrella y vivirá para contarlo 

 Durante los eclipses totales de Sol se puede ver la atmósfera de la estrella, que encierra un enigma físico que nadie ha conseguido explicar. En 1869, durante una ocultación del astro por la Luna, se observó una línea espectral de color verde que no correspondía a ningún elemento químico conocido y que fue bautizado coronio, pues estaba en la corona, la atmósfera del Sol. Setenta años después se aclaró que ese elemento era en realidad hierro, pero para tener ese color debía estar unas 200 veces más caliente que la superficie de la estrella, algo aparentemente imposible.

“Una llama de fuego está más caliente cuanto más te acercas a ella, pero en el Sol pasa justo lo contrario, la corona está a un millón de grados mientras la superficie del Sol está a apenas 6.000, es algo contra natura y hasta que no vayamos allí no sabremos cómo es posible”, explica David Lario, un astrofísico de Badalona que forma parte del equipo científico de la Sonda Solar Parker de la NASA. Esta nave diseñada por el Laboratorio de Física aplicada de la Universidad Johns Hopkins (EE UU), en la que trabaja Lario, será la que más se acerque a una estrella. Llegará a unos 6 millones de kilómetros del Sol, cuando la Tierra está a 150 millones de kilómetros.

La nave de la NASA, con un coste de 1.200 millones de euros, va protegida por un escudo térmico de carbono de 12 centímetros de grosor que alcanzará temperaturas de 1.400 grados, cerca del punto de fusión del hierro. Al otro lado de la coraza, un sistema de refrigeración mantendrá el equipo electrónico a unos 30 grados. Los cuatro instrumentos científicos a bordo de la nave estudiarán los electrones, los núcleos atómicos cargados, los protones y los átomos de helio de la corona solar así como los campos magnéticos que genera el astro para aclarar el origen del viento solar y poder predecir tormentas solares peligrosas para la Tierra.

La nave también es la primera de la historia que lleva el nombre de una persona viva. En 1958 el físico estadounidense Eugene Parker predijo la existencia del viento solar, una corriente de núcleos atómicos, electrones y otras partículas que viajan por el Sistema Solar a unos tres millones de kilómetros por hora. La propuesta encontró mucho rechazo de otros expertos hasta que la confirmó en 1962 la primera sonda interplanetaria, la Mariner II que exploró Venus.

Desde entonces se han observado fulguraciones que provocan tormentas solares en la Tierra y pueden interrumpir la comunicación por satélite, radio e incluso tumbar el servicio eléctrico. Parker también teorizó que en la superficie de la estrella se producen nanofulguraciones, explosiones de menor magnitud imposibles de observar desde la Tierra que impulsan los núcleos atómicos y los electrones del plasma solar hasta las capas exteriores de su atmósfera y que explicarían las diferencias de temperatura entre la corona y la superficie del Sol.

Otra posibilidad es que las altas temperaturas se generen debido a las fluctuaciones de los campos magnéticos que conectan la superficie del astro con las capas altas de la corona por los que ascienden las partículas cada vez con mayor energía y temperatura. “La sonda solar va a una región espacial que nunca se ha explorado antes”, ha dicho Parker, que ahora tiene 91 años, en una nota difundida por la Universidad de Chicago, de la que es profesor emérito, y ha añadido: “Estoy seguro de que habrá sorpresas. Siempre las hay”.




La Parker tiene previsto despegar el 11 de agosto desde Cabo Cañaveral. Alcanzará su órbita en torno al Sol el 1 de noviembre. La fuerza de gravedad de la estrella, casi 30 veces mayor que la de la Tierra, acelerará la nave hasta los 200 kilómetros por segundo, la mayor velocidad jamás alcanzada por un artefacto espacial. En sus primeras siete órbitas la Parker usará el empuje de Venus para frenar e ir cerrando su órbita en torno al astro dentro de una misión en la que hará 24 revoluciones en torno al astro y que durará hasta 2025, aunque su funcionamiento podrá extenderse más allá mientras funcionen dos componentes claves: los paneles solares y los propulsores que se encargan de que el escudo térmico dé siempre la cara al Sol. Cuando se agote el combustible la sonda podría quedar desprotegida y derretirse sin producir llamas, pues no hay oxígeno en la atmósfera del Sol.

“Vivir al lado de una estrella tiene sus riesgos y es una obligación de la sociedad estudiarla y conocer sus secretos”, comenta Javier Rodríguez-Pacheco, investigador principal del detector de partículas energéticas, uno de los 10 instrumentos de la sonda Solar Orbiter (SolO) de la Agencia Espacial Europea cuyo lanzamiento está previsto para 2020. “Gracias a Solar Orbiter y Parker tendremos por primera vez una especie de película de lo que sucede en la totalidad de nuestra estrella y podremos hacer predicciones mucho más precisas sobre su comportamiento y de cómo afecta a toda la heliosfera [la región bajo la influencia del viento solar y el campo magnético del Sol]”.

La nave europea llegará a 42 millones de kilómetros el Sol y será la primera en estudiar sus regiones polares, invisibles desde la Tierra por el plano en el que se encuentra, y que son claves para entender los ciclos solares de actividad magnética que suelen medirse por el número de manchas que aparecen en la superficie de la estrella. Cada ciclo solar dura unos 11 años y los dos últimos han tenido una intensidad menor que los anteriores. “Con los modelos y observaciones de los que disponemos hoy en día, nos es imposible predecir si esta disminución continuará en los próximos ciclos, pudiendo aparecer una pequeña Edad de Hielo como la que hubo entre los años 1645-1715 y que en su momento más frío coincidió con una desaparición de las manchas solares, o si por el contrario la intensidad se repondrá y todo volverá a la normalidad”, resalta Rodríguez-Pacheco, catedrático de la Universidad de Alcalá de Henares.

viernes, 23 de marzo de 2018

Surface Book 2: la bestia de Microsoft para competir con el MacBook Pro

Este equipo convertible posee un diseño atractivo y está indicado para todo tipo de tareas, incluidos los juegos
Cuando Panos Panay, vicepresidente corporativo de Microsoft Devices, presentó el Surface Book 2 en el blog de Microsoft lo bautizó como ‘la bella y la bestia’; un apodo cuanto menos peculiar para describir un ordenador. Con ello, hacía referencia a que este equipo con Windows 10 tiene un exterior muy cuidado y una configuración que le permite realizar (casi) cualquier tarea. ¿El objetivo? Convertirse en una alternativa real a un dispositivo como el MacBook Pro de Apple.





Análisis y valoración


Fabricado con una aleación de magnesio, su estética es atractiva. Su acabado se corresponde con el de un producto de gama alta y su apariencia es robusta y resistente. Además, aunque a simple vista parece un portátil tradicional, el Surface Book 2 posee un diseño 2 en 1: la pantalla se separa del teclado para utilizarse de forma independiente como una tableta.

La unión de ambos componentes se realiza a través de una bisagra cuyo diseño está inspirado en una columna vertebral. Gracias a ella, la apertura de la pantalla es muy suave, la sujeción es fuerte y segura y su separación resulta muy sencilla, ya que basta con pulsar un botón para conseguirla. Además, su forma hace posible que se adapte sin problemas a la forma de la mano cuando se traslada el equipo de un lado a otro, pese a que no resulta una tarea especialmente cómoda. La culpa es de su peso, bastante superior a lo que esperábamos; un hecho que sin duda viene provocado por la presencia de una doble batería o una tarjeta gráfica, como veremos más adelante.

Buena parte de los componentes internos se encuentran en la tableta, algo indispensable para que pueda utilizarse de manera autónoma. En concreto, integra el procesador, la memoria RAM, el almacenamiento SSD, una batería… También el botón de encendido y la mayor parte de las conexiones, entre las que destacan dos puertos USB, un USB tipo C o el conector para auriculares. Echamos de menos algún interfaz para vídeo (miniHDMI, por citar una posibilidad) y, sobre todo, que el USB tipo C hubiese sido compatible con Thunderbolt 3, lo que permitiría una mayor velocidad de transferencia, entre otros beneficios.




 






Máxima claridad

Su pantalla posee un tamaño de 13,5 pulgadas, tecnología IPS y una resolución de 3.000x2.000 píxeles. Se ve de maravilla. De hecho, durante los días que han durado nuestras pruebas las imágenes siempre han destacado por sus colores vivos y una gran nitidez, aunque es cierto que su acabado brillante hace que en exteriores baje un poco la calidad. La respuesta táctil es rápida y tiene un formato 3:2 ideal para navegar por Internet, dibujar o consultar manuales. Para disfrutar de los contenidos multimedia añade además altavoces estéreo certificados por Dolby Atmos que ofrecen una calidad sonora muy positiva para tratarse de un equipo de estas dimensiones.



Sobre la pantalla se sitúa una cámara con una resolución muy ajustada y cuyo uso solo es recomendable para alguna videoconferencia ocasional y para desbloquear el dispositivo con el rostro gracias a Windows Hello. Se complementa con otra situada en la carcasa trasera con 8 megapíxeles de resolución y que, más que para hacer fotos o grabar vídeos en un contexto de ocio, está indicada para disfrutar de aplicaciones de realidad mixta. Es decir, las que combinan imágenes reales y digitales.

El teclado, por su parte, tiene un tacto gomoso muy agradable y resulta realmente cómodo de utilizar: su tamaño es óptimo y el recorrido de las teclas, adecuado. Además, dispone de un conjunto de teclas de acceso rápido para la configuración del brillo, la retroiluminación de la pantalla o la reproducción multimedia. Junto a él se sitúa un touchpad con un tamaño correcto, un tacto excelente y, como no podía ser de otra manera, soporte para los gestos multitáctiles de Windows 10.


La competencia

Apple Macbook Pro. Disponible con pantalla de 13 o 15 pulgadas, la versión más completa de este portátil cuenta con Touchbar, una barra de herramientas que cambia las opciones disponibles en función de la tarea que se esté realizando.

Dell XPS 13. Un portátil compacto y ligero que integra una pantalla de 13,3 pulgadas en el tamaño de un equipo de 11 pulgadas gracias a que reduce al máximo sus marcos.

HP Spectre X360 13. Su pantalla gira 360 grados para colocarse en distintas posiciones y utilizarlo como tableta o portátil. Se completa con cuatro altavoces configurados por Bang&Olufsen.

También es el lugar elegido para instalar la tarjeta gráfica y una segunda batería que, combinada con la que incluye la tableta, permite que la autonomía se alargue durante todo el día. En concreto, Microsoft estima su duración en 17 horas, pero depende del uso: navegando, viendo vídeos y escribiendo (mucho), hemos logrado que se extienda unas 12 horas.
Su lado más bestia

En la hoja de especificaciones del Surface Book 2 que hemos probado —hay una configuración inferior en 13,5 pulgadas y otra superior con pantalla de 15— destacan un procesador Intel Core i7 de octava generación, 16 GB de memoria RAM y una tarjeta gráfica NVIDIA GeForce 1050. Por lo tanto, no es de extrañar que el rendimiento del equipo sea excepcional en todos los supuestos. Incluso permite ejecutar programas profesionales como Autodesk o Dessault y jugar con soltura a todo tipo de títulos. El desempeño es muy positivo en este aspecto, aunque tenemos que puntualizar que no llega a la altura de un ordenador gaming.

En definitiva, el convertible de Microsoft es un ordenador con un diseño muy atractivo que brilla especialmente cuando lo utilizamos como portátil. Es solvente en todos los aspectos (reproducción multimedia, trabajo, juegos…) pero necesita mejoras en la conectividad, en la calidad de las cámaras (sobre todo la frontal de cara a las videoconferencias) o en el peso. Aun así, su mayor hándicap se encuentra en el precio, que alcanza los 3.449 euros. Si no importa reducir el almacenamiento, la memoria RAM o prescindir de la gráfica, está disponible a partir de 1.749 euros.



Ficha técnica

Pantalla: PixelSense de 13,5 pulgadas, 3.000x2.000 píxeles de resolución (267 ppp), relación de aspecto 3:2, contraste 1.600:1 y capacidad multitáctil con reconocimiento de 10 toques

Procesador: Intel Core i7-8650U (cuatro núcleos) de 8ª generación con hasta 4,20 GHz de turbo máximo

Gráficos: NVIDIA GeForce GTX 1050 con 2 GB de memoria gráfica GDDR5

Memoria RAM: 16 GB

Almacenamiento: 1 TB

Cámara: Frontal de autenticación facial con Windows Hello, 5 MP con vídeo HD de 1080p; posterior con enfoque automático de 8 MP con vídeo Full HD 1.080p

Batería: Hasta 17 horas de reproducción de vídeo

Sistema operativo: Windows 10 Pro Creators Update de 64 bits

Tamaño: 312x232x15–23 mm

Peso: 1,534 Kg

Conectividad: Wi-Fi 802.11ac , Bluetooth 4.1 LE

Sensores: Luz ambiental, proximidad, acelerómetro, giroscopio, magnetómetro

Puertos: 2 USB 3.0 de tipo A, USB de tipo C, lector de tarjetas SDXC UHS-II, auriculares de 3,5 mm, 2 Surface Connect

Otros: Prueba de Office 365 de 30 días, micrófonos duales, altavoces frontales estéreo con audio Dolby Audio Premium

miércoles, 7 de marzo de 2018

Descubierta una nueva propiedad del grafeno que revolucionará el mundo de la física

Un equipo del MIT logra por primera que se convierta en superconductor



Imagínese que pudiera cortar en láminas extremadamente finas, de tan solo un átomo de espesor, la viruta que se obtiene al sacarle punta a un lápiz. Si a continuación observara esas láminas al microscopio, vería una malla de átomos de carbono, dispuestos en hexágonos. Es el grafeno, un material bidimensional con unas propiedades asombrosas: además de ser el más fino que existe, muy ligero y flexible, a la vez que cientos de veces más duro que el acero y más conductivo que el cobre.

Ahora un equipo de científicos del Instituto de Tecnología de Massachusetts (MIT), en Cambdrige (EE.UU.) liderado por el investigador valenciano Pablo Jarillo-Herrero, acaban de descubrir una nueva y fascinante propiedad de este supermaterial que podría revolucionar la física teórica.



Cuando colocan dos capas de grafeno, una sobre otra pero rotadas con el ángulo mágico (1,1 grados), el sistema que resulta actúa como los materiales superconductores no convencionales.
Cuando colocan dos capas de grafeno, una sobre otra pero rotadas con el ángulo mágico (1,1 grados), el sistema que resulta actúa como los materiales superconductores no convencionales. (Yuan Cao y Pablo Jarillo-Herrero)

Han dispuesto dos láminas de grafeno, una encima de otra, pero no perfectamente alineadas, sino una de ellas girada con un ‘ángulo mágico’. En esa disposición exclusivamente los investigadores han visto que ese ‘sándwich’ de grafeno es capaz de conducir electrones sin resistencia. Es decir, se convierte en un superconductor, un material capaz de transportar electricidad sin pérdidas.

“Es la primera vez que se consigue este tipo de superconductividad en una estructura de este tipo, donde tienes una capa encima de otra, ninguna de las cuales es superconductora, y que simplemente por jugar con el ángulo de rotación aparece esta propiedad de la superconductividad. Es bastante extraordinario y no se había logrado nunca”, explica Jarillo-Herrero a Big Bang en una entrevista.
Muestra de grafeno, en el Institut de ciències fotòniques


Muestra de grafeno, en el Institut de ciències fotòniques (.)

La superconductividad, una propiedad de algunos materiales que se descubrió hace alrededor de un siglo, podría revolucionar la trasmisión de energía, los sistemas de transporte e incluso los escáneres en medicina. De hecho, actualmente ya se emplean superconductores en los escáneres de resonancia magnética; o para crear campos magnéticos muy grandes, como en los aceleradores de partículas, apunta Àlvar Sànchez, físico del grupo de superconductividad de Universitat Autònoma de Barcelona (UAB).

La superconductividad, una propiedad de algunos materiales que se descubrió hace alrededor de un siglo, podría revolucionar la trasmisión de energía, los sistemas de transporte e incluso los escáneres en medicina

Hasta el momento se conocían dos tipos de superconductores, los convencionales, que son metales que han de enfriarse a temperaturas del cero absoluto. Y los no convencionales, que mayoritariamente no son buenos metales, y que pueden superconducir electricidad a una temperatura más elevada que los anteriores, aunque el mecanismo por el que funcionan es un enigma de la física.

El principal problema que presentan es que, para funcionar, necesitan hacerlo a muy bajas temperaturas, entre -273 y -140ºC, por lo que se debe dedicar mucha energía a refrigerarlos. De ahí que por el momento se utilicen de forma limitada.

No obstante, los resultados de Jarillo-Herrero y su grupo, que se recogen en dos artículos en Nature esta semana, podrían abrir la puerta a entender mejor cómo funcionan los superconductores no convencionales y dar un paso más hacia poder usarlos en el día a día a temperatura ambiente.

“El grafeno es un material muy particular en el que sus propiedades electrónicas cambian dependiendo del número de capas. Hasta hace poco siempre se usaban capas alineadas, hasta que unos investigadores se dieron cuenta de que no tenía por qué ser así y predijeron que si se rotaban las capas, eso daría lugar a un objeto inusual con unas propiedades muy especiales, puesto que los electrones se comportarían de forma distinta”, dice Jarillo-Herrero.

    “El grafeno cambiará nuestras vidas”
    Frank Koppens: “Podemos resolver el problema de la energía”

Este investigador y su grupo han descubierto que cuando se superponen las dos capas de grafeno con un ángulo de 1,1º, el ‘ángulo mágico’, como lo denominan en el trabajo, y las enfrían a 1,7 grados por encima del cero absoluto, tienen un comportamiento aislante: los electrones en esas capas interactúan de forma muy fuerte y no se mueven. Pero al inducir una pequeña densidad de carga eléctrica al estado aislante, el grafeno se vuelve superconductor de forma completamente controlada.

“Hemos comprobado que esta estructura de grafeno tiene propiedades extraordinarias, algunas estaban predichas y otras son inesperadas. La gran relevancia de estos artículos es que abre un nuevo campo de propiedades que antes no se conocían del grafeno”, considera Jarillo-Herrero.
El tren magnético Maglev de Shanghai, que levita, se basa en campos magnéticos generados con superconductores.
El tren magnético Maglev de Shanghai, que levita, se basa en campos magnéticos generados con superconductores. (fzant / Getty)



Aunque este descubrimiento está aún lejos de tener aplicaciones directas, para el investigador valenciano, “si llegamos a entender muy bien este fenómeno de la superconductividad no convencional, algún día podremos llegar a hacer superconductores a temperaturas más elevadas y, por tanto, que tengan aplicaciones más extendidas”.

    El grafeno avanza hacia las aplicaciones

Esta investigación, financiado por la Fundación Nacional para la Ciencia de los EEUU y la Fundación Gordon y Betty Moore, el Moore de la ley de Moore y fundador de Intel, es para el investigador Icrea Frank Koppens, físico del ICFO- Institut de Ciències Fotòniques experto en grafeno, “uno de los trabajos científicos más importantes que he visto en mi carrera como investigador. Han descubierto un nuevo tipo de superconductividad en un sistema totalmente controlable y además pueden pasar de aislante a superconductor de forma controlada. Es un nuevo tipo de física”.

“Es uno de los trabajos científicos más importantes que he visto en mi carrera como investigador”
Frank Koppens

ICFO

Según este investigador, que no ha participado en ninguno de los dos estudios, “lo que limitaba a los superconductores hasta el momento era que no se entendía del todo cómo funcionaban y no se tenía el suficiente control. Esta es la primera vez que se crean casi desde cero, que los pueden controlar, encender y apagar. Tampoco nunca antes se había visto que se pudiera pasar de un aislante perfecto a un superconductor perfecto, algo que a priori parece contrario al sentido común”.

Para Sànchez, de la UAB, “estos resultados son muy interesantes porque han descubierto una nueva familia de superconductores en un sistema tan interesante como el grafeno. Y este nuevo sistema es un banco de pruebas para entender la física de los superconductores no convencionales, que se utilizan sin entender el mecanismo. Podría abrir la puerta a desarrollar desde sensores mucho más sensibles a ordenadores cuánticos”.

Cuando la materia oscura no gobernaba el universo

Un análisis de galaxias de hace 10.000 millones de años muestra que estaban dominadas por la materia visible. Ahora, es la oscura la que determina la forma en que giran


Cuando los astrónomos clavan sus telescopios en el cielo profundo, muy lejos de las estrellas que ocupan nuestro vecindario, nos hacen viajar a mundos lejanos, pero también nos transportan al pasado. Uno de esos viajes en el tiempo lo realizó recientemente un grupo internacional de astrónomos a bordo del Very Large Telescope, un sistema de cuatro telescopios gigantescos que el Observatorio Europeo Austral (ESO) tiene en el desierto chileno de Atacama.

La intención de los científicos, liderados por Reinhard Genzel, del Instituto Max Planck para Física Extraterrestre en Garching, Alemania, era averiguar qué sucedía en el universo hace 10.000 millones de años, durante una época de mayor formación de galaxias. Sus observaciones mostraron que las cosas han cambiado mucho en el cosmos desde entonces.

En los años setenta, Vera Rubin y Kent Ford, del Instituto Carnegie de Washington (EE UU), vieron que las estrellas en los bordes de las galaxias giraban demasiado rápido. Teniendo en cuenta la masa visible a través de los telescopios y las leyes físicas conocidas, al alejarse del pozo gravitatorio que acelera las espirales galácticas la velocidad de las estrellas debería disminuir. Sin embargo, no lo hacía. Y tampoco salían disparadas por falta de atracción y exceso de velocidad. Parecía que una masa ingente e invisible, mucho mayor que la luminosa captada por los telescopios, las mantenía en su sitio. Tras descartar la posibilidad de que Newton y Kepler estuviesen equivocados, se aceptó que la explicación más plausible al misterio consistía en aceptar la existencia de un halo gigantesco de materia oscura que otorgaba a la galaxias la masa necesaria para que se comportasen como lo hacían.

La materia visible ya se había condensado en forma de galaxias cuando la oscura seguía muy esparcida



Esa materia oscura, que aún no se ha podido detectar de manera directa y es conocida solo a través de sus efectos en grandes objetos cósmicos, es uno de los elementos fundamentales para entender el funcionamiento del universo. Ahora, es el elemento dominante en las galaxias conocidas, pero, como han descubierto Genzel y su equipo, eso no siempre fue así.

Los investigadores, que han publicado sus resultados en la revista Nature, vieron que en las galaxias de hace 10.000 millones de años, las regiones externas rotaban más lento que las cercanas al núcleo. Eso era lo que habrían esperado astrónomos como Rubin y Ford cuando observaron las galaxias de nuestro vecindario cercano, pero en este caso, justo aquel comportamiento fue lo que sorprendió a los autores. Parece que cuando el Universo era más joven, en aquel momento de efervescencia creadora 4.000 millones de años después del Big Bang, la materia visible aún era la que dominaba en las galaxias.

Una de las explicaciones para esa ausencia de materia oscura la ofrecía el astrónomo Mark Swinbank, de la Universidad de Durham, en Reino Unido, en otro artículo publicado en Nature. Allí explicaba que la materia visible se condensó rápidamente en los discos planos que hoy identificamos con las galaxias mientras la materia oscura continuó mucho más esparcida durante miles de millones de años. “Esto se debe a que el gas [formado por materia visible] interactúa con su entorno con mayor fuerza que la materia oscura y por lo tanto pierde energía más rápido”, explica.

Mientras la materia oscura fue encontrando su lugar, amontonándose para formar las grandes esferas invisibles que ahora gobiernan los destinos de las galaxias, la materia visible, la única que de momento hemos podido detectar, creó discos galácticos de dos velocidades, fieles a lo que esperaron los astrónomos durante décadas. Mucho después, cuando unos primates que salieron de África a dos patas permitían incluso que las hembras de su especie escrutaran los cielos, la materia oscura llevaba millones de años gobernando el baile galáctico.

Descubierta una estrella que no debería existir

El hallazgo de un astro con más del doble de años que el Sol en el halo de la galaxia ayuda a reconstruir la historia del cosmos

En el halo de la galaxia, esa especie de esfera gigantesca gobernada por la materia oscura que rodea el disco luminoso que alberga a la Tierra, se encuentran algunas de las estrellas más antiguas que se conocen. Con más del doble de antigüedad que el Sol (aparecieron unos 500.000 años después del Big Bang), esas estrellas llevan existiendo prácticamente desde el nacimiento del universo. Como los fósiles que ayudan a reconstruir la historia de la vida en nuestro planeta, en ellas se pueden hallar muchas claves sobre la evolución del cosmos.



Un equipo del Instituto Astrofísico de Canarias (IAC) ha publicado en la revista The Astrophysical Journal Letters el descubrimiento de uno de estos astros. Bautizada como J0023+0307, se encuentra a 9.450 años luz de distancia y pertenece a una segunda generación de estrellas del universo. La primera, surgida de la acumulación de las masas de hidrógeno al inicio de la historia cósmica, fue formada por estrellas gigantescas y de vida muy corta. De este tipo sería la nacida 180 millones de años después del gran estallido que puso fin a la Edad Oscura del universo.

La nueva estrella nació casi 9.000 millones de años antes que el Sol

Se cree que ninguno de aquellos objetos ha sobrevivido hasta nuestros días. Hundidos bajo el peso de su propia gravedad y el veloz agotamiento de su combustible, estallaron en forma de supernovas. Pero aquello, como sabemos, solo fue el principio. En esos estallidos, los átomos ligeros se fundieron para formar otros más pesados y así salieron despedidos al medio interestelar para convertirse en ladrillos con los que se formaron nuevas estrellas.

De esa nueva generación es J0023+0307. Los científicos del IAC buscan “estrellas pobres en metales porque son las más antiguas de la Vía Láctea y contienen información sobre cómo era el universo al principio”, explica David Aguado, líder del proyecto. Estas estrellas tienen ya masas más bajas, similares a la del Sol, y cuentan con más elementos pesados, como el carbono, que normalmente sirve como aglutinante estelar. En este caso, los autores del estudio se vieron sorprendidos por la escasa cantidad de ese elemento encontrada en la estrella recién descubierta. “Por eso decimos que esta estrella no debería existir”, apunta Carlos Allende Prieto, coautor del trabajo. Pero existe, y eso demuestra que los modelos que reconstruyen la evolución del universo son mejorables.

Aguado considera improbable que en torno a esa estrella extraña y antiquísima orbiten planetas. Los materiales pesados como el hierro o los elementos radiactivos que podemos encontrar en nuestro sistema solar, necesarios para formar planetas rocosos como la Tierra, requieren de sucesivos estallidos de supernovas que los generen fusionando elementos más ligeros. J0023+0307 tiene además otras diferencias con estrellas más jóvenes como el Sol. Según explica Aguado, se formaron fuera de una galaxia, en solitario, aunque luego se pudieron empezar a relacionar con otros astros en cúmulos globulares. Después, muchos de esos cúmulos formaron protogalaxias y galaxias en las que estas estrellas quedaron integradas.

El equipo del IAC quiere continuar ahora su investigación sobre estas estrellas del halo galáctico para reconstruir la historia cósmica. Próximamente, pretenden iniciar un proyecto con el Very Large Telescope (VLT) que tiene el Observatorio Europeo Austral (ESO) en el desierto de Atacama, en Chile. Allí contarán con un telescopio del tamaño adecuado y las herramientas necesarias para analizar los elementos químicos que componen la estrella. “El Gran Telescopio de Canarias tiene el tamaño adecuado, pero, aunque va a contar con uno pronto, no tiene aún un espectrógrafo de alta resolución”, explica Aguado. “Por eso, para no perder la carrera científica, vamos a hacer esa investigación en el ESO, del que España forma parte”, añade.

Como los buscadores de fósiles, los astrónomos siguen rellenando espacios vacíos de la genealogía cósmica, que es, como la antropológica, una manera de saber un poco más quienes somos. Y en el horizonte, la esperanza de encontrar una de aquellas estrellas primigenias, que nos lleven un poquito más cerca del conocimiento de todo y que, como J0023+0307, no debería existir.

miércoles, 28 de febrero de 2018

La detección de una señal de radio desde el universo temprano es el primer indicio de la formación de estrellas y el fin de la llamada Edad Oscura del cosmos

Cuentan las teorías cosmológicas que hace 13.700 millones de años un punto infinítamente denso comenzó a expandirse a una velocidad mayor que la de la luz. Pocos segundos después de aquel Big Bang, el cosmos ya era inmenso y se habían puesto las bases del universo que conocemos, aunque aún era un mundo extraño. El eco de aquel estallido quedó grabado en un fondo cósmico de microondas que lo permea todo, pero cuando solo habían transcurrido 380.000 años llegó la oscuridad. La masa de partículas que conformaba el universo antiguo comenzó a enfriarse y permitió que protones y electrones se apareasen formando hidrógeno neutro, un gas que absorbió la mayor parte de los fotones a su alrededor. Eso volvió el universo opaco y dio origen a la Edad Oscura del Universo, un periodo fuera del alcance de los telescopios que detectan la luz visible.

br Durante casi 200 millones de años, los gérmenes del universo que conocemos se fueron alimentando en la sombra del espacio tiempo. La materia se fue agrupando asistida por el poder gravitatorio de la materia oscura y, finalmente, nacieron las primeras estrellas. Esos astros, enormes, azules y de vida breve, comenzaron a emitir una radiación ultravioleta que cambió el ecosistema cósmico. La radiación modificó el estado energético de los átomos de hidrógeno que se independizaron de la radiación cósmica de fondo y comenzó a amanecer en el universo.



Hoy, un grupo de investigadores liderado por Judd Bowman, de la Universidad Estatal de Arizona (EE UU), publica en la revista Nature la detección de una señal producida 180 millones de años después del Big Bang se convierte así en la prueba más antigua de formación de estrellas que tenemos. El logro llega gracias a una peculiar antena del tamaño de un frigorífico colocada en una región remota de Australia. Allí, lejos de las interferencias de radio de los artefactos humanos, colocaron un receptor que tenía un objetivo bien definido por los físicos teóricos. En el momento de perder su neutralidad, el hidrógeno comenzó a emitir o absorber la radiación circundante en una longitud de onda específica: 21 centímetros, el equivalente a una frecuencia de 1.420 megahercios. Con la expansión del universo y siguiendo la norma del corrimiento al rojo, por la que la longitud de onda de la radiación se incrementa con la distancia, los astrónomos calculaban que la señal llegaría a la Tierra en el entorno de los 100 megahercios.
Pese a diseñar un detector extremadamente sofisticado, capaz de capturar esa señal y distinguirla de la radiación cósmica que baña continuamente nuestro planeta (los autores han calificado el logro como detectar el aleteo de un colibrí en medio de un huracán), al principio, los investigadores no encontraron la señal esperada. En su planteamiento inicial, calcularon el rango de emisión de aquel hidrógeno primigenio contando con que estaría más caliente que su entorno. Pero, pensaron después, quizá estuviesen equivocados. Cuando cambiaron el modelo asumiendo que el gas estaría más frío y bajaron la frecuencia de búsqueda, encontraron la señal de ondas de radio que perseguían alrededor de los 78 megahercios.
Después de encontrar la señal de la formación de las primeras estrellas, el misterio de la temperatura del hidrógeno dejó espacio para indagar en esa segunda incógnita. ¿Qué había enfriado ese gas? Una de las posibilidades sería que la temperatura de la radiación del universo en aquella época fuese superior a la del fondo cósmico de microondas estudiado por sondas como la europea Herschell. Otra opción es la que plantea un segundo artículo publicado en el mismo número de Nature. En este trabajo, liderado por Rennan Barkana, del Instituto Tecnológico de Massachusetts (MIT), se sugiere que las interacciones con la materia oscura, mucho más fría que la convencional, explicarían el desajuste entre las teorías y lo observado.
Estos dos trabajos abren una ventana a una etapa de la historia cósmica hasta ahora velado. Es la primera vez que se mira a ese periodo en que los ancestros de nuestras estrellas y nuestras galaxias comenzaban a formarse. Ahora, otros observatorios podrán seguir indagando en aquel periodo sabiendo mejor dónde mirar y, por el camino, es posible que se ajuste mejor la búsqueda de la materia oscura. Aquella sustancia, que supone más del 80% del total de la materia del universo, desempeñó un papel fundamental en la evolución del universo y sigue haciéndolo. Y, pese a su nombre, sacó al cosmos de casi 200 millones de años de oscuridad.