jueves, 1 de octubre de 2015

Novedades en la Física Medioambiental 2015 (II/II)

(Este artículo es continuación de Novedades en la Física Medioambiental 2015 (I/II). Te recomiendo que lo leas primero.)

Seguimos echando un vistazo a diversas maneras de combatir la degradación del medio ambiente mediante aplicaciones de la física.

Ahora se trata de mejorar la conversión de la luz solar en electricidad. Howard Branz se centra en la división espectral, que posiblemente sea el siguiente gran paso para utilizar la energía solar. Existe un grupo en el Instituto de Tecnología de California (Caltech) que utiliza espejos especiales para dividir la luz blanca en sus longitudes de onda constituyentes, que posteriormente hacen confluir en aparatos fotovoltaicos optimizados para rangos específicos de longitudes de onda. Esta técnica podría aumentar la eficiencia de una célula solar de aproximadamente un 5% a un 50%.

Light splitting
División de la luz en el espectro visible. [Foto de Fir0002 (talk) 
(Uploads) (Fir0002 (talk) (Uploads)) [GFDL, CC-BY-SA-3.0
GFDL or CC-BY-SA-3.0], via Wikimedia Commons]
Otros equipos de investigación están tratando de llevar la idea más allá. Por ejemplo, después de que la luz visible del sol se absorba, la radiación infrarroja que queda se dirige a un captador térmico. En un futuro, podríamos necesitar estos adelantos tecnológicos para los edificios, la energía solar o la limpieza en seco, por ejemplo.

Existen otros científicos para los que generar electricidad sin producir dióxido de carbono no es suficiente. Preocupado por la cantidad en aumento de gases de invernadero en la atmósfera, Klaus Lackner está desarrollando nuevos materiales de membrana para eliminar dióxido de carbono del aire. Está trabajando en un aparato que, teóricamente, puede absorber dióxido de carbono mil veces más rápido que un árbol.

El año pasado Lackner fundó el Centro de Emisiones Negativas de Carbono en la Universidad Estatal de Arizona, donde él y su equipo han estado trabajando en la creación de diferentes prototipos para eliminar dióxido de carbono de forma eficiente y económica.

Su equipo ha estado experimentando con diferentes diseños de aparatos y resinas de intercambio aniónico que se enlazan con el dióxido de carbono. Las resinas se usan actualmente en la purificación del agua, pero son ideales para la captura de CO2 porque el dióxido de carbono se puede extraer en agua ordinaria para su almacenamiento y la resina se puede reutilizar.

El prototipo que ha estado desarrollando usa una estructura de entramado semejante a la tela metálica hexagonal, para maximizar la superficie. Espera tener pronto un prototipo funcional en el techo de su edificio. Este tipo de aparato tiene varias ventajas: es totalmente pasivo, está formado por unidades más pequeñas que se pueden producir en masa y el material básico es muy, muy barato.

Sin embargo, el reto de limpiar la atmósfera del exceso de carbono es tremendo. Lackner estima que se necesitarían cien millones de sus aparatos tamaño contenedor para contrarrestar completamente la cantidad de dióxido de carbono que se ha ido acumulando durante los últimos 200 años.


Concentraciones de CO2: altas en rojo y bajas en azul.  
[Por NASA/Goddard Space Flight Center (Goddard Multimedia) [Public domain], undefined]

_____
Fuente:
http://www.aps.org/publications/apsnews/201505/environmental.cfm

miércoles, 16 de septiembre de 2015

Novedades en la Física Medioambiental 2015 (I/II)

El clima de la Tierra no es algo estático, sino que está cambiando continuamente. En la antigüedad, poco podíamos hacer salvo tratar de aguantar cuando el clima era adverso. Sin embargo, ahora hay muchas formas en que podemos minimizar los posibles efectos catastróficos del cambio climático. Y los físicos tienen en esta lucha un papel importante: desde reducir las emisiones de carbono en los países en vías de desarrollo, hasta introducir nuevas técnicas para aprovechar la energía del sol, pasando por la extracción del dióxido de carbono del aire.

Veamos algunos ejemplos con nombre y apellidos que ya están poniendo su grano de arena.

Ashok Gadgil es un físico de Berkeley cuyo trabajo ayuda a mejorar la salud global y el medio ambiente. Uno de los proyectos que encabezó fue el horno de Darfur, una estufa de madera barata y con buen rendimiento que se distribuyó por primera vez a los refugiados de los campamentos de Sudán.

Ashok Gadgil -- photo
Ashok Gadgil. [Foto de Junkchumbak (Own work)
[CC BY-SA 3.0], via Wikimedia Commons]
Ashok diseñó las estufas para maximizar su eficiencia energética, ahorrando el combustible de madera, un bien escaso que es peligroso de recolectar en la árida zona del norte de África. En el Laboratorio Nacional Lawrence Berkeley (LBNL), Gadgil y su equipo diseñaron y probaron un horno de metal de 20 dólares que podía ser enviado a todo el mundo de forma muy económica.

Se estima que cocinar con estas estufas ahorra dos toneladas de carbono por estufa y por año comparado con el método tradicional de calentar una olla apoyada sobre tres piedras encima de un pequeño fuego. Hasta ahora, la empresa sin ánimo de lucro que manufactura y distribuye los hornos, Potential Energy, ha enviado más de 46 000 por toda la región y planea mandar otros 5000 antes de que acabe el año.

Ari Glezer (Instituto de Tecnología de Georgia) está desarrollando una fuente de energía limpia y renovable que aprovecha la potencia de los torbellinos en el desierto, lo que se conoce coloquialmente como diablos de polvo. Estos remolinos se forman espontáneamente, pero la idea del proyecto es crear un número determinado de ellos a voluntad.

Los diablos de polvo empiezan a generarse cuando una capa de aire caliente se forma justo encima de la superficie del suelo bañada por el sol. La capa de aire comienza a elevarse, pero pequeñas perturbaciones producen vórtices de aire cálido y frío.

Mojave DustDevil
Diablo de polvo en el desierto de Mojave (EE. UU.).
[Foto de Jeff T. Alu (Transferred from en.wikipedia to Commons.)
[GFDL or CC-BY-SA-3.0], via Wikimedia Commons]
El montaje no gasta energía para crear el diablo de polvo artificial. Glezer y su equipo construyeron una estructura con paletas que se asemeja al interior de una turbina de agua y que dirije el aire caliente que sube hacia un vórtice que gira, induciendo artificialmente un diablo de polvo. Con un ventilador sujeto a un generador en la parte superior, el equipo ha sido capaz de acumular energía utilizable a partir del aire que se mueve hacia arriba. El vórtice se puede mantener siempre que se mantenga la estratificación térmica.

El equipo construyó la primera máquina Solar Vortex en Atlanta y después la envió en 2014 a Mesa (Arizona), donde se realizó con éxito la primera ronda de pruebas de mercado en el aire seco. La siguiente prueba utilizará una versión de cinco metros de diámetro. Posteriormente también se quiere probar si el aire húmedo funcionaría en el Solar Vortex.

Se espera que este tipo de generación de electricidad pueda llegar a competir en coste con la energía eólica convencional. Algunas otras de sus ventajas son que no se ve afectada por los cambios de velocidad del viento y que las nubes tienen sobre ella menos impacto que sobre la energía solar tradicional.

No te olvides de echar un vistazo a la segunda parte de este artículo para estar al tanto de más ejemplos de cómo los físicos luchan por reducir el impacto sobre el medio ambiente.
_____
Fuente:
http://www.aps.org/publications/apsnews/201505/environmental.cfm

sábado, 29 de agosto de 2015

Las palomitas y la física

Todos hemos visto alguna vez cómo se hacen las palomitas de maíz: cómo saltan, el sonido que hacen, el olor que desprenden. Parece fácil: cualquiera sin muchos conocimientos puede hacerlas; sin embargo, como demuestran Emmanuel Virot y Alexandre Ponomarenko (Escuela Politécnica de la Universidad de Grenoble y Universidad Pierre y Marie Curie), el proceso, que dura solo unos 100 ms, incluye una asombrosa cantidad de física.


Aquí van algunos datos de las diversas fases de este proceso:
La corteza de un grano de maíz se quiebra a una temperatura de unos 180 °C, cuando el vapor de agua interno alcanza una presión crítica. Muchas plantas utilizan procesos similares para proyectar sus semillas de forma explosiva. En un grano de maíz, la fractura permite que se expandan adiabáticamente gránulos de almidón, transformándose en copos esponjosos que, como las piernas de un gimnasta, hacen que el grano de maíz empiece a dar volteretas. Con una energía cinética inicial de unos 20 μJ, un grano de maíz puede alcanzar una altura de un centímetro aproximadamente y rotar hasta 500°.

En cuanto al sonido característico de la explosión del maíz, lo sorprendente es que aparece después de que se haya roto la corteza. Una de las hipótesis de los investigadores es que las fracturas provocan reducciones rápidas de la presión, lo que da lugar a la excitación de modos acústicos dentro del grano.

Como vemos, algo tan cotidiano y tan sorprendente al mismo tiempo.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/4/10.1063/PT.3.2758

jueves, 13 de agosto de 2015

Cómo hacer mejores robots (II/II)

(Este artículo es continuación de Cómo hacer mejores robots (I/II). Te recomiendo que lo leas primero).

El proceso de "selección natural" mencionado en la primera parte del artículo ya se ha usado para crear un sencillo robot que es capaz de permanecer dentro de un círculo. Y se puede imaginar que tal proceso podría funcionar para máquinas multiusos muy complejas. Al principio, estos cerebros artificiales serían como niños; y tal vez habría que esperar 10 o 15 años para que pudiéramos tomarlos en serio.

Sin embargo, una agencia gubernamental de Estados Unidos está tratando de obtener resultados útiles ahora, sin tener que esperar tanto tiempo. Se trata de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA por sus siglas en inglés). La agencia está organizando un concurso de robótica. Se creó como respuesta al desastre de Fukushima y ofrece 2 millones de dólares al equipo con el robot que mejor pueda completar una serie de tareas básicas de búsqueda y rescate.

Los 25 participantes humanoides tendrán que llegar a una zona de desastre, atravesar terrenos difíciles, mover escombros, hacer un agujero en una pared, ajustar una válvula, subir escaleras y después completar una tarea sorpresa. Estos robots tendrán una autonomía supervisada: un controlador humano puede asignar tareas e invalidar las decisiones del robot.

Sin embargo, las malas opciones que tomen los robots con inteligencia artificial podrían llegar a ser un problema. Stuart Russell, científico informático de la Universidad de California en Berkeley, expresaba su preocupación de que los robots totalmente independientes podrían tomar malas decisiones (desde un punto de vista humano y moral) a la hora de completar las tareas. El año pasado Russell y Stephen Hawking escribieron un artículo en el que opinaban que la cuestión que plantea la película Transcendence (sobre robots con subjetividad) merece ser evaluada más detenidamente. ¿Puede convertirse una máquina hiperinteligente en una fuerza imparable contra la humanidad?

Según Russell, si le pides a un robot que realice algo tan sencillo como hacer clips o calcular dígitos del número pi, si eso es lo único que se le pide, el robot puede llegar a la conclusión de que la manera más óptima de hacerlo es convertir toda la masa del planeta Tierra en instalaciones computacionales. Obviamente, eso no es lo que querríamos.

No obstante, la imagen de robots inteligentes que pinta el proyecto de DARPA es más atractiva en lo relacionado a la inteligencia artificial. Se trataría de un robot y una persona trabajando como un equipo, cada uno tratando de hacer lo que mejor se les da. Y hay quien afirma que los robots pueden hacerse más hábiles e ingeniosos, pero nunca más inteligentes que los humanos. Algo que nos tranquiliza... de momento.

Bioloid humanoid robot
Humanoide de Bioloid en el Reto de Obstáculos de AAAI 2010. [Foto original de Jiuguang Wang (Own work) [CC BY-SA 3.0 or GFDL], via Wikimedia Commons]
_____
Fuente:
http://www.aps.org/publications/apsnews/201504/robot.cfm

lunes, 3 de agosto de 2015

Cómo hacer mejores robots (I/II)

A día de hoy, la verdadera inteligencia artificial solo prolifera en la ficción. Los que verdaderamente se dedican a investigar en la robótica aún debaten cómo vamos a conseguir robots inteligentes en la vida real... Y qué vamos  hacer con ellos una vez los tengamos. Existen robots que pueden pasar la aspiradora; otros que pueden vencer a los mejores jugadores de ajedrez; e incluso los hay que pueden conducir coches. Estos son ejemplos de lo que se puede denominar "inteligencia de propósito especial": robots que hacen bien una sola tarea complicada, pero poco más.

Actualmente, los ordenadores tienen dificultad para reconocer rostros y aprender lenguajes hablados, habilidades ambas que los niños adquieren rápidamente. Los bebés aprenden explorando su mundo: cuando mueven los brazos y las piernas, empiezan a encontrar unos movimientos más agradables que otros. De este modo, asimilan esa información sensorial a través de un grupo de neuronas y la enlazan mediante sinapsis con otras neuronas que controlan las acciones motoras.

Hay que decir que redes neuronales artificiales que operan de modo similar han existido desde hace décadas, aunque con diversos resultados. Sin embargo, Seyoung Kim (Centro de Investigación T.J. Watson de IBM) ha presentado una nueva pieza de hardware que permitiría hacer las redes neuronales artificiales más pequeñas y más eficientes que las versiones anteriores, las cuales requerían múltiples puertas digitales y circuitos de control para simular las sinapsis.

El componente de IBM en cuestión es un semiconductor con dos electrodos a ambos lados de un óxido metálico. Al hacer pasar una corriente por el aparato, se ajusta su resistencia y con ella la fuerza de las conexiones. Un conjunto de estas "sinapsis artificiales" enlazaría las señales sensoriales con las "neuronas" motoras.

En una simulación, los investigadores de IBM hicieron que las neuronas se activaran al azar, causando movimientos aleatorios de un robot parecido a los que se usan como aspirador. Como hace un bebé al explorar, el robot se mueve lentamente de un lado para otro. Sin embargo, algunos movimientos acercan el robot a un blanco, provocando una respuesta sensorial positiva. Cuando una neurona sensorial y una neurona motora se activan juntas, disminuye la resistencia del componente y adquieren una conexión más fuerte.

Sin embargo, un aparato de este tipo solo puede ampliarse hasta un límite. Y no es solo cuestión de obtener mejores componentes de hardware. La neurociencia todavía no comprende completamente el funcionamiento del cerebro como para tratar de reproducirlo en una máquina. Y por otra parte, algunos se preguntan si la evolución darwiniana podría crear cerebros artificiales capaces de sentir y experimentar subjetividad.

En las simulaciones, miles de grupos de "genes" de cerebro artificial determinan cada uno una red diferente. Cada cerebro se coloca en un robot simulado, donde controla el robot e intenta mantenerlo vivo. Al final del proceso, se transplanta el mejor cerebro (o cerebros) en robots reales. Es una especie de selección natural en un sistema artificial.

Pero, ¿qué se ha conseguido ya con este tipo de robots? ¿Cuál es el siguiente paso? ¿Qué podrían llegar a hacer en un futuro cercano? Todo esto y más en la segunda parte de este artículo.


Ejemplo de evolución de cooperación altruista en un grupo de robots. En la generación inicial, los robots apenas pueden realizar una navegación coordinada. Después de 240 generaciones de "selección darwiniana", la mayoría de los robots buscan los paquetes grandes y cooperan para llevarlos hacia la región donde está la pared blanca. [By Floreano D, Keller L [CC BY 3.0], via Wikimedia Commons]
_____
Fuente:
http://www.aps.org/publications/apsnews/201504/robot.cfm

miércoles, 22 de julio de 2015

Levitación mediante el sonido

Si hacemos rebotar una onda de sonido en un espejo acústico, la superposición de las ondas original y reflejada pueden dar lugar a una onda de presión estacionaria. Una partícula localizada en ese campo de presión sentirá una fuerza que la lleva a una posición de equilibrio estable. De hecho, una onda acústica estacionaria con suficiente amplitud puede incluso suspender una partícula en contra de la acción de la gravedad.
Onda estacionaria (en negro) frente a ondas que se desplazan (en rojo y azul).
Numerosos investigadores han utilizado aparatos acústicos de este tipo para estudiar el comportamiento de gotas líquidas sin las complicaciones de un recipiente contenedor. El problema con los aparatos convencionales es que la separación entre el generador de ondas y el reflector debe estar sintonizada de forma resonante para obtener una onda estacionaria.

Ahora Marco Andrade (Instituto de Física de la Universidad de São Paulo, Brasil) y sus compañeros han mostrado un aparato que puede hacer levitar partículas (y manipularlas) sin la necesidad de un ajuste fino. Su invento está basado en una propuesta de hace décadas de Charles Rey. Consiste en un transductor cilíndrico de 10 mm de diámetro que genera el sonido, y un reflector cóncavo algo más grande.

Acoustic levitation

Para el caso de geometría coaxial que aparece a la izquierda de la representación gráfica, las bolas atrapadas permanecen a una distancia fija del espejo, incluso cuando la separación entre el transductor y el espejo varía de 50 mm a 100 mm. Además, cuando se desalinean los ejes del transductor y el espejo (como aparece en la representación de la derecha), las bolas ajustan sus posiciones permaneciendo confinadas todo el tiempo.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/3/10.1063/PT.3.2712

jueves, 9 de julio de 2015

¿Cómo se formaron las galaxias enanas?

Las galaxias enanas esferoidales son pequeñas y antiguas, y contienen una proporción de materia oscura mayor que galaxias más grandes o los cúmulos globulares, que también son pequeños y antiguos. Como son poco brillantes, las galaxias enanas esferoidales que se pueden estudiar son solo las que rodean la Vía Láctea y la cercana galaxia de Andrómeda.

A pesar de sus peculiaridades, las enanas esferoidales son bastante similares al entorno galáctico en el que se hallan, de modo que es posible que se empezaran a formar al mismo tiempo. Aunque esta suposición deja en el aire algunos aspectos. Por ejemplo, alrededor del 60% de las enanas esferoidales de Andrómeda ocupan aproximadamente un halo esférico en torno a la galaxia; y el resto ocupa una delgada región con forma de torta que abarca el plano galáctico de Andrómeda. Una distribución de este tipo es difícil de producir si todas las enanas empezaron a formarse con la galaxia anfitriona cuando colapsó por primera vez.

Pegasus dSph
Enana esferoidal Pegaso, galaxia satélite de
Andrómeda. [Imagen original de la NASA 
(http://apod.nasa.gov/apod/ap990122.html) 
[Public domain], via Wikimedia Commons]
Una posible alternativa supone que las enanas del plano galáctico se formaron después de las otras, a partir del material que se esparció por el sistema cuando Andrómeda se fusionó con otra galaxia. Para arrojar algo de luz sobre el misterio, Michelle Collins (Universidad Yale) y sus colaboradores han utilizado el instrumento DEIMOS del telescopio Keck II para observar dos de las enanas esferoidales que se hallan en el plano galáctico de Andrómeda. Después de determinar la composición química y otras propiedades de las enanas, los investigadores las compararon con otras observaciones que existen de 12 enanas esferoidales del plano galáctico y 17 del halo esférico, todas en la galaxia de Andrómeda.

Tras la comparación, no encontraron diferencias apreciables entre los dos tipos de enanas esferoidales, lo que sugiere que todas ellas se formaron al mismo tiempo y del mismo material. Con el marco cosmológico actual, no es fácil explicar una distribución tan claramente bimodal. Pero eso es lo bueno de la astronomía: siempre hay algo nuevo que explicar mejor.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/3/10.1063/PT.3.2710

viernes, 26 de junio de 2015

Un hidrogel que se comporta como el cartílago

En el campo de la bioingeniería, los hidrogeles son considerados como materiales multiuso. Consisten en redes de polímeros hidrófilos entrelazados y suelen ser blandos, biocompatibles y muy absorbentes. Se pueden utilizar como cápsulas para la aplicación controlada de fármacos, como películas delgadas en las lentes de contacto e incluso como sensores en los alcoholímetros.

En la ingeniería de tejidos (o medicina regenerativa), los hidrogeles se usan a menudo como soportes para las células que van a reemplazar los tejidos. Ahora Takuzo Aida, Yasuhiro Ishida (ambos del instituto de investigación RIKEN de Japón) y Takayoshi Sasaki (Instituto Nacional de Ciencias de Materiales de Japón) y sus equipos de investigadores han diseñado un hidrogel que puede hacer las funciones del tejido mismo.
Elbow joint - deep dissection (anterior view, human cadaver)
Vista del cartílago articular (articular cartilage) de la articulación
del codo. [Imagen original de Anatomist90 (Own work) 
[CC BY-SA 3.0], via Wikimedia Commons]

El nuevo material se comporta como el cartílago articular que lubrica las articulaciones: puede soportar una carga pesada a lo largo de una dirección, a la vez que estirarse y deformarse con facilidad en las otras. En el cartílago real, el comportamiento lubricante es el resultado de la interacción compleja entre las células, las fibras de colágeno y una multitud de proteínas extracelulares. En la versión sintética, es el producto de una receta más sencilla: los investigadores mezclaron copos de óxido de titanio en una solución de moléculas precursoras del hidrogel y lo sometieron al campo intenso de un imán superconductor, que hizo el resto.

Un hidrogel de este tipo se prepara mediante un proceso de cuatro pasos. Se mezclan nanohojas de óxido de titanio con una solución de moléculas precursoras del hidrogel; se aplica un campo magnético que orienta las hojas en capas espaciadas de forma regular; las moléculas precursoras se polimerizan para envolver las nanohojas en una matriz de hidrogel; finalmente, se quita el campo magnético. La repulsión culombiana entre las nanohojas cargadas negativamente endurece el material en la dirección normal a las capas, pero permite que se pueda estirar y deformar fácilmente a lo largo del plano de las capas.

Sin embargo, para que pueda llegar a ser una solución viable como sustituto del cartílago, el nuevo hidrogel tendrá que verificar que es capaz de soportar ciclos de carga mucho más duros que los que se usaron en las mediciones preliminares de los investigadores. Y dado que el mecanismo que hace posible el comportamiento anisótropo del material depende de interacciones electrostáticas, se debería estar seguro de que sus propiedades se mantendrían en el entorno altamente iónico del interior del cuerpo. De momento, Aida y sus colaboradores han demostrado que, después de una semana inmerso en suero fisiológico, el hidrogel retiene sus propiedades estructurales y mecánicas.

El equipo de investigadores también considera que el hidrogel podría usarse como aislador de vibraciones. La anisotropía mecánica del material hace que la energía vibracional se concentre en modos paralelos a las capas de titanato. Como experimento de prueba, pusieron un plato de cristal equilibrado sobre pilares de hidrogel que se apoyaban a su vez sobre una mesa que podía oscilar mecánicamente. Cuando el eje rígido del hidrogel está alineado verticalmente, el plato permanece nivelado, incluso si tiembla la mesa. Cuando se cambian los pilares por un hidrogel más convencional, el plato se tambalea y la esfera que estaba encima para verificar el equilibrio se cae.

Esta capacidad de aislar las vibraciones es especialmente relevante y prometedora para países que suelen sufrir terremotos, como Japón, país de origen de los investigadores.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/3/10.1063/PT.3.2707

sábado, 13 de junio de 2015

Preciosos fenómenos ópticos: los halos

El fenómeno óptico conocido como halo se forma cuando la luz del Sol o de otra fuente es refractada por los cristales de hielo de la atmósfera de la Tierra. Aunque normalmente se encuentran en los cirros, nubes altas y ligeras, los cristales conocidos como prismas de hielo a veces se pueden hallar cerca del suelo.

Los halos se observan con mayor frecuencia que los arcoíris. Y de las muchas configuraciones de halos, el más común es el halo circular o de 22°. Este tipo de halo se produce cuando los cristales de hielo hexagonales presentan una amplia distribución de orientaciones; lo de los 22° hace referencia al ángulo con el que los cristales desvían la luz en el borde interior del círculo.

En la foto, tomada en una tarde fría en una playa escocesa, se pueden apreciar varias características asociadas a los cristales de hielo de la atmósfera, entre los que destaca el halo circular que rodea el sol.
Ice halos above Foveran beach - geograph.org.uk - 675126
Halo circular sobre una playa de Escocia. [Autor de la foto: 
Martyn Gorman [CC BY-SA 2.0], via Wikimedia Commons]
La Organización de las Naciones Unidas (ONU) ha declarado el año 2015 como el Año Internacional de la Luz y las Tecnologías basadas en la Luz. Uno de los principales proyectos de la celebración se denomina "Light: Beyond the Bulb" (Luz: Más allá de la bombilla). Desarrollado por el Observatorio Chandra de Rayos X y patrocinado por SPIE con apoyo de la Unión Astronómica Internacional, el proyecto muestra la diversidad de la ciencia basada en la luz que se está investigando en la actualidad en todo el espectro electromagnético, en todas las disciplinas científicas y en todas las plataformas tecnológicas.

Que la luz nos acompañe siempre.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/2/10.1063/PT.3.2698

domingo, 31 de mayo de 2015

Seguridad cuántica para las tarjetas de crédito

Entre las muchas características extraordinarias que distinguen la mecánica cuántica de la mecánica clásica está el llamado teorema de imposibilidad de clonación cuántica. Resumidamente, viene a decir que es imposible duplicar perfectamente un estado cuántico desconocido.

La criptografía cuántica trata de explotar esta propiedad para así poder mantener las comunicaciones seguras y a salvo de posibles oídos ajenos. Pues bien, ahora Pepijn Pinkse y sus colaboradores de la Universidad de Twente y de la Universidad Técnica de Eindhoven han demostrado cómo proporcionar una identificación física a prueba de fraudes utilizando autentificación de seguridad cuántica (QSA por sus siglas en inglés).

Las claves en su experimento consistían en finas capas de pintura blanca que recubrían las "tarjetas" que se deseaba autentificar. Cuando un pulso de luz (con sólo unos pocos fotones) se enfoca sobre una clave, el patrón de la luz reflejada depende de la forma espacial del pulso de fotones, que se puede programar, y de las posiciones al azar e irreproducibles de más de un millón de nanopartículas de óxido de zinc que se encuentran en la pintura.

Después de medir y anotar esa dependencia en un "registro" inicial de la clave, los investigadores podían examinar la misma con un pulso de forma arbitraria y comparar así la respuesta esperada con lo que realmente se observaba. La clave correcta se distinguía claramente de una clave incorrecta, e incluso de un intento optimizado de falsificación basado en información robada del registro.

Y otras características que añaden atractivo a la técnica QSA es que no depende de datos secretos guardados en algún sitio y que se puede implementar con la tecnología actual. Como vemos, la seguridad cuántica está cada vez más cerca.

Bank cards
Foto original de MediaPhoto.Org (mediaphoto.org Own work) [CC BY 3.0], via Wikimedia Commons.

_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/2/10.1063/PT.3.2676

sábado, 16 de mayo de 2015

El cometa de Rosetta tiene mucho deuterio

Los planetólogos han sospechado desde hace tiempo que los cometas y los asteroides trajeron agua y compuestos orgánicos a la Tierra durante una época conocida como el Bombardeo Intenso Tardío, cientos de millones de años después de que se formara el planeta. Pero la contribución de los cometas y su procedencia todavía son temas discutidos.

Para distinguir entre las diferentes posibilidades, un buen método es comparar la proporción entre el deuterio y el hidrógeno (D/H) del agua del mar con la que se encuentra en distintos conjuntos de cometas. En los aproximadamente doce cometas investigados hasta el momento, se piensa que las ratios D/H observadas representan los valores locales donde y cuando los componentes del cometa se condensaron.

Comet 67P on 19 September 2014 NavCam mosaic
Cometa 67P/Churiumov-Guerasimenko.
[Imagen original de ESA/Rosetta/NAVCAM,
CC BY-SA IGO 3.0 [CC BY-SA 3.0-igo], undefined]
La última medida isotópica procede de la sonda espacial Rosetta (de la Agencia Espacial Europea), que está ahora orbitando alrededor del cometa 67P/Churiumov-Guerasimenko, de 4 km de anchura. Utilizando el espectrómetro de masas de la Rosetta, Kathrin Altwegg (Universidad de Berna, Suiza) y sus compañeros han medido la relación D/H de la delgada atmósfera del cometa, siendo su valor tres veces el de la Tierra.

Este valor tan alto es un duro golpe contra la teoría de que los cometas del cinturón de Kuiper trajeron el agua a la Tierra, teoría que había sido reforzada hace tres años cuando el telescopio espacial Herschel descubrió un cometa (103P/Hartley 2) cuya relación D/H coincidía con la de la Tierra. A semejanza del Hartley 2, se piensa que el cometa Churiumov-Guerasimenko se originó en el cinturón de Kuiper, más allá de la órbita de Neptuno.

Altwegg y sus colaboradores especulan que la inconsistencia de estos valores podría reflejar orígenes distintos, a pesar de que ahora sean parte de la misma familia. La nueva medida apunta a los asteroides condríticos, cuyas ratios D/H son sistemáticamente más parecidas a las de la Tierra, como la fuente más probable de nuestros océanos. Seguiremos investigando...
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/2/10.1063/PT.3.2675

viernes, 1 de mayo de 2015

La explosión de una estrella supermasiva

En el centro de casi todas las galaxias se encuentran agujeros negros supermasivos, con masas millones o miles de millones de veces la del Sol. Y esos agujeros negros alimentan quásares lejanos y brillantes que ya existían cuando el universo sólo tenía mil millones de años. Sin embargo, comprender cómo se pudieron formar tales agujeros negros supermasivos tan pronto en la historia del universo es un reto.

Algunos modelos teóricos sugieren que se pudieron originar como estrellas supermasivas (de unas 10 000 masas solares o más) que colapsan en agujeros negros y después aumentan mediante acrecimiento y fusiones de galaxias hasta alcanzar los tamaños observados ahora.

A través de nuevas simulaciones con superordenadores, Ke-Jung Chen (de la Universidad de California en Santa Cruz) y sus compañeros han revelado que algunas estrellas primordiales de unas 55 000 masas solares podrían acabar no como agujeros negros (como predicen los modelos), sino que morirían como supernovas sumamente energéticas. Debido a que estas estrellas masivas queman helio en su núcleo, los efectos de la relatividad general pueden hacer que sean dinámicamente inestables, dando lugar a un rápido colapso del núcleo de la estrella y alimentando un fuego termonuclear explosivo. Entonces, la estrella explota de forma tan violenta y completa que no quedan restos masivos.

En la imagen se puede ver una simulación en dos dimensiones del interior de una estrella supermasiva de 55 500 masas solares un día después del comienzo de la explosión. La circunferencia exterior es ligeramente mayor que la órbita de la Tierra. En el núcleo interior de helio se producen reacciones nucleares que convierten el helio en oxígeno y dan lugar a violentas inestabilidades del fluido que aceleran la reacción. En unas pocas horas, la explosión habrá liberado suficiente energía como para dispersar por completo la estrella. Se espera que este resultado siga valiendo para tres dimensiones.

Explosion of supermasive star
Imagen de Ken Chen, Universidad de California en Santa Cruz (UCSC).

_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/1/10.1063/PT.3.2666

jueves, 16 de abril de 2015

Una pared inteligente para móviles y tabletas

La mayoría de nuestras oficinas y hogares están llenos de microondas (que no vemos y que son emitidas por el aparato de wifi o cualquier otra estación base) que esperamos que interaccionen con nuestros aparatos inalámbricos, tales como los móviles, los portátiles y las tabletas. Unas antenas sofisticadas que están dentro de esos dispositivos ayudan a capturar las ondas que rebotan múltiples veces por la estancia. A pesar de ello, a menudo la recepción es desigual en el mejor de los casos.
11wifi
Imagen de LTSTS (Own work) [CC BY-SA 3.0 or 
Public domain], via Wikimedia Commons

Para mejorar la recepción, Mathias Fink, Geoffroy Lerosey y sus compañeros del Instituto Langevin de París están tratando de optimizar el entorno. Utilizando ideas de la acústica de regresión temporal y de los moduladores espaciales de luz de la óptica, crearon paneles de metamateriales que se pueden adaptar y que enfocan las señales inalámbricas hacia un aparato, por ejemplo un móvil.

El prototipo de modulador espacial de microondas (SMM por sus siglas en inglés) tiene 102 píxeles de celda unitaria, cada uno con dos resonadores y un circuito de realimentación dirigido al móvil. Cuando una onda con una frecuencia resonante incide sobre un píxel, el resonador secundario ajusta el píxel para que refleje con un cambio de fase de 0 o π, dependiendo de cómo el móvil haya ajustado el circuito de realimentación.

Los investigadores llevaron a cabo sus pruebas con un SMM de 0,4 m2 montado sobre una pared en una oficina con un sistema de reverberación complejo. El SMM incrementaba la señal global que llega al móvil en más de un orden de magnitud, incluso cuando el SMM, la fuente y el teléfono se hallaban fuera de la visual de cada uno de los otros.

Cuando el SMM cambia las fases, las ondas se cancelan en el teléfono. Según Fink, una "pared inteligente" de este tipo no solo reduce la energía necesaria para las comunicaciones inalámbricas, sino que los SMM pueden modificar los frentes de onda de las microondas en el campo de la física fundamental.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/news/10.1063/PT.5.7116

miércoles, 1 de abril de 2015

Diseño de sonido para coches eléctricos

El interior de un vehículo eléctrico puede resultar extrañamente silencioso sin un motor de combustión, y al mismo tiempo ser molesto por los componentes de sonido de alta frecuencia, que no resultan familiares. Las opciones para introducir sonidos virtuales no tienen límites, pero como demuestran Soogab Lee y sus colegas de la Universidad Nacional de Seúl, la psicoacústica y la teoría musical de la armonía pueden ofrecer una guía.

Tanto la sonoridad como la agudeza, que está relacionada con la proporción de componentes de alta frecuencia, pueden afectar negativamente a la creación de una sensación agradable. Por otro lado, para aumentar la impresión dinámica, los investigadores querían que los sonidos estuvieran relacionados con la velocidad. Se ha comprobado que son más agradables los sonidos del motor armónicos, cuyas frecuencias se encuentran en proporciones simples; por ello, el equipo de Seúl se centró en tonos relacionados armónicamente con el componente de alta frecuencia dominante que se produce en el interior del coche durante la aceleración.

Los investigadores emplearon en sus estudios a 27 voluntarios, que evaluaron cinco combinaciones de tonos añadidos (disponibles aquí) teniendo en cuenta su impresión general y describiendo después los sonidos en términos de pares de atributos: agradable–desagradable, tranquilo–dinámico, suave–duro, ruidoso–silencioso, claro–sordo y lujoso–barato.

Dos de las cinco combinaciones tuvieron una puntuación más alta para los apartados de lujo y agradabilidad que el sonido base y fueron los que más gustaron en general. Para una de ellas, el tono original y los añadidos tenían una proporción de frecuencias de 5:3:1, similar a la de un clarinete. La otra combinación, con subarmónicos que estaban tres y cuatro octavas por debajo del original, se consideraba más dura y sonora, pero también más dinámica. Esta última combinación era la preferida de los doce voluntarios a los que les gustaban los coches deportivos.

HK Central Star Ferry Multi-storey Carpark EV Electric Vehicle Charging white automobile 9-Dec-2012
Coche eléctrico recargándose. [By Epattloamer (Own work) [CC BY-SA 3.0 or GFDL], via Wikimedia Commons]
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/1/10.1063/PT.3.2645

martes, 17 de marzo de 2015

Detectar uranio blindado sobre el terreno

El personal de seguridad utiliza diversos métodos para detectar materiales sospechosos, tales como explosivos o productos químicos peligrosos. Pero el uranio (especialmente la versión altamente enriquecida, apta para emplearse en armas nucleares) puede ser difícil de detectar, debido a que se puede blindar fácilmente mediante una cantidad relativamente pequeña de plomo, que absorbe las emisiones que revelan la presencia del material fisible.

Sin embargo, si se bombardea con neutrones un objeto sospechoso, aquellos pueden penetrar sin problemas el blindaje de plomo y producir suficientes neutrones de fisión y rayos gamma como para ser detectados. La única condición para operaciones sobre el terreno es que las fuentes de neutrones necesarias sean pequeñas y ligeras.

Aerial view LLNL
Vista aérea del Laboratio Nacional Lawrence Livermore.
[Foto de LLNL, Lawrence Livermore National Security, LLC,
and the Department of Energy (National Ignition Facility) 
[Public domain], via Wikimedia Commons]
Jennifer Ellsworth y un equipo de investigadores del Laboratorio Nacional Lawrence Livermore (LLNL por sus siglas en inglés) han desarrollado un prototipo del tamaño de una maleta como fuente de neutrones. Y dicen que incluso se puede reducir al tamaño de una fiambrera (de 5 kg y 20 W), que podría ser transportado fácilmente para inspeccionar un artículo sospechoso.

Un punto clave del aparato es un conjunto de 40 puntas de iridio grabadas. Las puntas, con un radio de 100 nm, concentran el campo eléctrico que proviene de una fuente eléctrica compacta de entre 10 y 20 kV. El campo concentrado rompe e ioniza el deuterio gaseoso molecular cerca de las puntas. Incidiendo sobre un blanco de hidruro de titanio (formado con tritio) con una tensión de polarización de −100 kV, una corriente D+ pulsante de 120 nA en el prototipo genera brotes de 107 neutrones de 14 MeV, un flujo que es un orden de magnitud mayor de lo que se conseguía con las fuentes de neutrones mediante ionización de campo.

El prototipo ha producido corrientes D+ de hasta 500 nA, consumiendo menos de 10 W. El equipo del LLNL está reduciendo el tamaño y el peso del aparato, a medida que aumenta el rendimiento. Esto hará posible que el análisis de neutrones se pueda unir a los aparatos de rayos X portátiles en el terreno de la inspección de materiales no destructiva.
_____
Fuente:
http://scitation.aip.org/content/aip/magazine/physicstoday/article/68/1/10.1063/PT.3.2644

lunes, 2 de marzo de 2015

Las mejores noticias de física del 2014 (III/III)

(Este artículo es continuación de Las mejores noticias de física del 2014 (II/III). Te recomiendo que lo leas primero).

La amenaza de propagación del ébola
Cuando el virus del Ébola empezó a hacer estragos en el África Occidental y creció la preocupación de su posible propagación, los científicos comenzaron a investigar su transmisión. El físico Alessandro Vespignani (Universidad Northeastern de Boston, Massachussets) utilizó modelos informáticos para simular el movimiento de la gente a través del mundo y las formas en que la enfermedad podría propagarse. Su alarmante conclusión en agosto fue que, si no se hacía nada, decenas de miles de personas podrían infectarse en unos meses. Afortunadamente, se está haciendo mucho para combatir el brote; y según los datos, de momento el número de muertes se ha mantenido en algo más de 6000.


Premios Nobel
A pesar de no ganar el premio Nobel en su propio campo, a los físicos les fue bien en octubre. El premio de física lo ganaron dos ingenieros y un físico de materiales (uno de Estados Unidos y dos de Japón), por su trabajo en el desarrollo del led azul. Después del rápido invento de los ledes rojo y verde, se tardó casi veinte años en producir un led azul eficiente. Al día siguiente, dos físicos de Estados Unidos y uno de Alemania ganaron el premio de química por el desarrollo de la microscopía de fluorescencia de superresolución, lo que rebaja los límites de la microscopía óptica hasta la escala nanométrica.



Exploración espacial
Este otoño pasado, la exploración interplanetaria fue el centro de atención de las agencias espaciales mundiales. En octubre, la India colocó con éxito un pequeño satélite en la órbita de Marte, siendo solo la cuarta agencia espacial en hacerlo y de forma más económica que cualquiera de las otras misiones a Marte hasta la fecha.

En noviembre, la sonda espacial Rosetta de la Agencia Espacial Europea (ESA) lanzó su pequeño módulo Philae sobre la superficie del cometa 67P/Churiumov-Guerasimenko, pero su vida de funcionamiento se acortó cuando el módulo rebotó, saliéndose de la zona de aterrizaje planeada y cayendo en un cráter a la sombra. Sin poder usar sus paneles solares, la batería de repuesto se descargó, pero no antes de que el módulo llevara a cabo el 80-90% de su misión científica. Parte de esos datos llevaron a la conclusión de que el contenido isotópico de las moléculas de agua del cometa no coincidía con el de la Tierra. Así que se volvía a plantear la cuestión sobre el origen del agua de nuestro planeta.

Finalmente, en diciembre, la NASA lanzó un prototipo de Orión, su nueva nave espacial diseñada para llevar astronautas a una órbita terrestre baja y también más allá.
Rosetta's Philae on Comet 67P Churyumov-Gerasimenko
Representación de cómo se planeó el anclaje del módulo Philae al cometa.  
[Imagen original de DLR, CC-BY 3.0 [CC BY 3.0 de], via Wikimedia Commons]


Acelerador de sobremesa
En diciembre, científicos del Laboratorio Nacional Lawrence Berkeley anunciaron un nuevo récord mundial para un acelerador de partículas compacto. El equipo utilizó un acelerador de plasma mediante láser para proporcionar a los electrones una energía de hasta 4,25 GeV. Aunque no es tan potente como el Gran Colisionador de Hadrones, el pequeño acelerador BELLA puede hacer en aproximadamente un metro lo que el CERN hace en 1000 metros. Se espera que esta nueva tecnología de aceleradores compactos marque un nuevo camino para futuras generaciones de colisionadores de partículas.

Y hasta aquí este resumen de noticias de física del 2014. Espero que el científico dentro de ti haya disfrutado.
_____
Fuente:
http://www.aps.org/publications/apsnews/201501/stories.cfm

viernes, 20 de febrero de 2015

Las mejores noticias de física del 2014 (II/III)

(Este artículo es continuación de Las mejores noticias de física del 2014 (I/III). Te recomiendo que lo leas primero).

La física en las películas
El 2014 ha sido un gran año para la ciencia en las películas. En marzo, se estrenó la esperada continuación de la serie de televisión de Carl Sagan, Cosmos; y el público quedó encantado con este viaje al universo. También fue en marzo cuando se estrenó el documental Locos por las partículas, que ofrecía una mirada íntima a las vidas de los investigadores del CERN que buscaban el bosón de Higgs.

La vida de Stephen Hawking apareció en la película tan aclamada por la crítica La teoría del todo, así como la del matemático Alan Turning en la película The Imitation Game (Descifrando Enigma). Finalmente, tras años de desarrollo, la película Interstellar llegó a la gran pantalla. Está inspirada en las teorías de gravitación y relatividad del físico Kip Thorne y dejó al público con la boca abierta con su impresionante representación visual de los agujeros negros y la dilatación temporal.



El elemento 117
El ununseptio (nombre temporal del elemento 117) se pudo ver por un instante en Alemania en mayo. En el Centro para la Investigación de Iones Pesados GSI Helmholtz en Darmstadt, los científicos bombardearon un blanco de berkelio con átomos de calcio acelerados para crear este elemento artificial, de vida media muy corta. Esto supone una continuación de un experimento realizado en Rusia en el 2010, en el que se creó por primera vez el elemento, confirmando así su existencia y probablemente preparando el terreno para su inclusión oficial en la tabla periódica de los elementos.

Además, uno de los isótopos del lawrencio descubierto en el proceso tenía una vida media de casi once horas, lo que da cierta esperanza a los físicos de que los experimentos podrían estar acercándose a las orillas de la "Isla de Estabilidad" para elementos superpesados, cuya existencia se trata de una hipótesis aún no comprobada.



Agujero negro galáctico
En el 2012, los astrónomos descubrieron un misterioso objeto masivo que caía hacia el agujero negro gigante que se encuentra en el centro de la Vía Láctea. Predijeron que la órbita elíptica que describía le llevaría a su punto más cercano al agujero negro hacia la mitad del verano del 2014 y se prepararon para observar los "fuegos artificiales" que se producirían a medida que el objeto iba siendo destrozado. Pero más bien fue un chisporroteo.

Originalmente se pensó que era una nube de gas gigante, pero el objeto podría albergar en realidad una estrella grande en su centro, lo que habría mantenido la nube unida ante las enormes fuerzas gravitacionales. Basándose en su trayectoria, existe una posibilidad de que en unas pocas décadas la estrella hipotética pase a través del polvo y el gas que rodea el agujero negro; quizá entonces los científicos puedan contemplar el espectáculo que habían esperado.


Simulación de una nube de gas que pasa cerca del agujero negro supermasivo en el centro de la galaxia. [By ESO/S. Gillessen/MPE/Marc Schartmann/L. Calçada (ESO) [CC BY 4.0], via Wikimedia Commons]

Y no acaba aquí este resumen de noticias del 2014. Aún nos queda la tercera y última parte de este artículo. 
_____
Fuente:
http://www.aps.org/publications/apsnews/201501/stories.cfm

martes, 10 de febrero de 2015

Las mejores noticias de física del 2014 (I/III)

Aquí os entrego un resumen de las noticias de física que más llamaron la atención durante el 2014. Tal vez no sean los avances o descubrimientos más importantes del año, pero fueron de las que más se habló.

Hito en la fusión
Físicos del Laboratorio Nacional Lawrence Livermore anunciaron en febrero que habían alcanzado un hito importante: en la Instalación Nacional de Ignición (NIF por sus siglas en inglés), 192 pulsos de láser simultáneos bombardearon pequeñas bolas de hidrógeno y las reacciones de fusión resultantes emitieron ligeramente más energía de la que se absorbió inicialmente. Se trata, así, de un primer paso clave en la fusión de confinamiento inercial.

No obstante, todavía queda mucho camino por recorrer antes de que la máquina produzca una ganancia neta de energía, ya que las bolitas de hidrógeno solo eran capaces de absorber una pequeña fracción de la energía del láser.



BICEP2
En marzo, el equipo científico responsable del telescopio BICEP2 en el Polo Sur anunció que habían visto la primera evidencia de polarización de modo B en la radiación de fondo de microondas cósmicas (CMB por sus siglas en inglés). En ese momento, se pensó que era evidencia irrefutable de las ondas gravitacionales que quedaron tras un periodo de rápida inflación en el comienzo del universo. Sin embargo, poco después del anuncio, empezaron a surgir dudas sobre los datos y sobre si el equipo había descartado sin lugar a dudas el efecto del polvo cósmico.

En el artículo que publicaron en junio, el equipo reconocía que el polvo podría haber afectado las observaciones, pero que de todas formas creían que la señal de la onda gravitacional era real. En septiembre, un nuevo informe del satélite Planck de la Agencia Espacial Europea reforzó las dudas sobre los resultados iniciales, pero los dos equipos continúan trabajando juntos para resolver las discrepancias.

Por otro lado, independientemente de la investigación del BICEP2, el equipo del Planck anunció que habían acabado de procesar los datos que el satélite había tomado durante cuatro años y habían creado el mapa de la CMB más detallado hasta la fecha.

History of the Universe
Historia del universo, donde pueden verse las ondas gravitacionales.
Imagen original de Yinweichen (Own work) [CC BY-SA 3.0 
(http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons.


Neutrinos intergalácticos
En el 2013, el detector de neutrinos IceCube situado en el Polo Sur observó neutrinos altamente energéticos adicionales, lo cual supone una prueba más de que esos neutrinos provenían de fuera de nuestra galaxia. En abril se anunció un nuevo suceso, al que se le llamó "Big Bird" ("Pájaro Grande"), más energético que los denominados "Bert" y "Ernie", los anteriores campeones. Sin embargo, con algo más de dos petaelectronvoltios (el doble que los valores máximos previos), no es ni un orden de magnitud mayor, por lo que los investigadores piensan que podríamos estar cerca del límite superior para las energías de los neutrinos cósmicos.

De momento, lo dejamos aquí; pero aún hay más noticias que podrás leer en la segunda parte de este artículo.
_____
Fuente:
http://www.aps.org/publications/apsnews/201501/stories.cfm

sábado, 31 de enero de 2015

Premio Nobel de Química 2014

Los galardonados de este año son Eric Betzig (Instituto Médico Howard Hughes), Stefan W. Hell (Instituto Max Planck de Química Biofísica) y William E. Moerner (Universidad Stanford) por su contribución al desarrollo de la microscopía de fluorescencia de superresolución.

El premio Nobel de química de este año gira en torno a cómo el microscopio óptico se convirtió en un nanoscopio, premiando dos técnicas similares pero diferentes que han sido capaces de superar el límite de Abbe.

Descrito por primera vez en 1873, el límite de Abbe dice que un microscopio no puede distinguir objetos más pequeños que aproximadamente la mitad de la longitud de onda de la luz usada, que es unos 200 nanómetros para la luz visible. Sin embargo, los mejores microscopios que ahora utilizan los métodos que han ganado el premio Nobel tienen una resolución por debajo de 10 nm.

Hell desarrolló en el año 2000 la microscopía STED (Stimulated Emission Depletion o de reducción por emisión estimulada), que usa dos láseres concéntricos para obtener la imagen de una célula. El láser central excita moléculas fluorescentes de la muestra, mientras que el láser exterior elimina cualquier otra fluorescencia. El detector barre continuamente la muestra, registrando el brillo fluorescente y creando así una imagen con una resolución mayor de 200 nm.

STED microscopy image of Vimentin with 25nm resolution
Imagen que muestra el aumento de resolución entre la microscopía óptica y la STED. [Foto original de Fabian Göttfert, Christian Wurm [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons]
Como dice Hell, la microscopía óptica es muy importante para las ciencias de la vida porque el uso de la luz es la única forma que nos permite ver las cosas vivas; sin embargo, la resolución de la microscopía óptica está intrínsecamente limitada. Gracias a estos nuevos métodos, se ha superado ese límite. Se pueden ver detalles a una resolución espacial mucho mayor, y esto permite desvelar el funcionamiento de las células a una escala de nanómetros, que es la escala molecular.

Aunque Betzig y Moerner nunca colaboraron directamente, su trabajo contribuyó decisivamente a poner las bases para la microscopía STED.

Después de que Moerner fuera capaz de detectar una sola molécula fluorescente en 1989, a Betzig se le ocurrió la idea de superponer imágenes de moléculas individuales para crear una imagen completa. El proceso que resumió en un artículo de 1995 describía cómo proyectaba luz de diferentes longitudes de onda sobre una célula para que brillaran distintas moléculas y luego anotaba dónde aparecían los puntos de luz. De este modo, cuando se combinaban todas las imágenes, los puntos formaban un contorno coherente.

No obstante, para obtener una imagen coherente, se necesitarían muchos colores diferentes de moléculas únicas, demasiados para que fuera práctico. Así que realmente no fue hasta 2005, cuando Betzig encontró una proteína específica identificada por Moerner, que la técnica se pudo utilizar. La proteína de Moerner brillaba brevemente y después —de ahí su importancia— se apagaba sola. Una célula con esta proteína se podía iluminar múltiples veces con un láser y cada vez brillaría un conjunto diferente de proteínas, lo que proporcionaría a Betzig la constelación de puntos brillantes que necesitaba para crear una imagen coherente.

Los microscopios electrónicos son capaces desde hace tiempo de obtener la imagen de objetos menores de 200 nm, pero esa técnica daña enormemente la muestra. Por otro lado, no puede observar cosas vivas y los electrones no pueden penetrar mucho dentro de las células. Con la fluorescencia, se puede observar, por ejemplo, la E. coli a superresolución sin tener que matarla, cortarla y someterla a radiación intensa y ultravacío.

¡Felicidades a los tres premiados!
_____
Fuente:
http://www.aps.org/publications/apsnews/201411/nobel.cfm

viernes, 16 de enero de 2015

Premio Nobel de Física 2014

El invento de los ledes azules eficientes es el motivo de que se haya otorgado el premio Nobel de física a Isamu Akasaki (Universidad de Meijo y Universidad de Nagoya), Hiroshi Amano (Universidad de Nagoya) y Shuji Nakamura (Universidad de California en Santa Bárbara). Su trabajo inició una revolución en la iluminación de bajo consumo. Gracias al led azul, podemos disponer ahora de fuentes de luz blanca que tienen un gran rendimiento y vidas muy largas. Es más, esta tecnología está ya reemplazando a otras más antiguas.

Los ledes rojos y verdes llevan con nosotros, más o menos en su forma actual, desde los años sesenta; pero los ledes azules eran mucho más difíciles de fabricar. Las dificultades aparecían a la hora de crear cristales de nitruro de galio (GaN) de alta calidad y combinarlos después con otros elementos para aumentar su rendimiento. Hicieron falta casi treinta años de trabajo en física de materiales, crecimiento de cristales y fabricación de aparatos para crear un led azul comercializable.

Akasaki empezó a experimentar para conseguir cristales de nitruro de galio puros en 1974, primero en el Instituto de Investigación Matsushita (Tokio) y después en la Universidad de Nagoya. Amano se le unió en los ochenta y le ayudó a desarrollar formas de dopar los cristales de nitruro de galio.

En 1992, mientras trabajaban en Nichia (en Tokushima, Japón), Nakamura y sus colaboradores ayudaron a explicar cómo la irradiación electrónica eliminaba parte de las ineficiencias que el equipo de Akasaki había estado encontrando.

Blue LED
Led azul iluminado. [Foto del usuario de Wikipedia MrX (2005)]
Ambos grupos de investigación pudieron crear posteriormente las aleaciones de nitruro de galio necesarias para producir las junturas entre las capas de semiconductor, lo que constituye los pilares de los ledes azules. Nakamura y su equipo vieron el primer brillo azul eficiente en 1994; y durante los dos años siguientes ambos equipos crearon los primeros láseres azules. En 1999 Nakamura dejó Nichia para entrar en la Universidad de California en Santa Bárbara.

Los miembros del Comité Nobel de Física hicieron hincapié en cómo los usos prácticos del aparato fueron factores decisivos para su elección del premio de este año. Ya hay muchos aparatos electrónicos comunes que hacen uso del trabajo de los investigadores. Los ledes azules se pueden encontrar en la mayoría de los aparatos con pantalla táctil. Los ledes blancos normalmente utilizan un led azul para excitar un material fosforescente que emite luz blanca, y se puede encontrar en los flashes de la mayoría de los teléfonos inteligentes modernos.

En principio, se subrayó el hecho de que el led azul se puede utilizar para obtener luz blanca, pero a lo largo de los años se ha visto cómo el invento del led azul se ha usado en los diodos de láser azul (utilizados en el almacenamiento óptico), cómo el futuro de las comunicaciones parece apoyarse en el uso de la luz más que en las ondas de radio (lifi en lugar de wifi), cómo se puede usar esta luz azul o ultravioleta para esterilizar el agua.

No obstante, el aumento de la eficiencia energética en el mundo es una de las aplicaciones más prometedoras. Aproximadamente un cuarto del consumo eléctrico en las economías más industrializadas se destina a la iluminación, por lo que obtener más luz con menos electricidad va a tener un gran impacto en nuestra civilización.

Desde Res Scientifica nuestra felicitación a los ganadores del premio Nobel de física de 2014.
_____
Fuente:
http://www.aps.org/publications/apsnews/201411/nobel.cfm
Related Posts Plugin for WordPress, Blogger...