#Trending Ciencia: Desarrollan un filtro que solo deja pasar la luz que incide en un determinado ángulo

NewsImage_Optical1

 

Investigadores del MIT han desarrollado un filtro que únicamente deja pasar la luz que llega a él en un determinado ángulo. Hasta ahora no teníamos problemas para filtrar la luz según su color o su polarización, pero había muchas dificultades para hacerlo según el ángulo y solo se había conseguido para ciertas longitudes de onda fuera del espectro visible. Este nuevo filtro funciona con todo el espectro visible. Podéis saber más del tema escuchando mi Trending Ciencia de hoy:

e0189bd6b17fe1f9a135d858a97a3315

04/04/2014. Desarrollan un filtro de luz basado en el ángulo de incidencia.

Más información

Artículo en MIT news.

Enlace al podcast.

Aquí tenéis un vídeo en el que se puede ver el filtro en funcionamiento:

 

Carnaval de la física #49: el mejor artículo

El precioso logo del carnaval que preparó con mucho amor mi media manzana-de-Newton

El día 15 se cerraron las votaciones para el mejor artículo de la edición 49 del Carnaval de la Física, así que hoy toca entregar el premio. La votación has sido muy reñida y no se ha decidido hasta la llegada del último voto.

Vamos con los que habéis elegido como los mejores artículos del Carnaval. En el quinto puesto y empatados a 9 puntos tenemos:

En el tercer puesto, con 10 puntos, tenemos a nuestro científico de relumbron Javi Guardiola:

En el segundo lugar con 11 puntos y tras una lucha encarnizada contra el artículo que ha acabado primero, tenemos a nuestro sueco favorito montando en bici:

Y el ganador con 13 puntos es nuestro tertuliano científico favorito:

premio

Mi más sincera enhorabuena a @2qblog por este premio que espero que luzca orgulloso en su blog.

Y para finalizar este Carnaval os dejo con una carta que me ha hecho llegar Antonio Lorenzo (@torpedofotonico), flamante vencedor del concurso de microrrelatos:

VOSOTROS SOIS LOS GIGANTES.

Siempre me he considerado una persona curiosa. Y siempre he tirado más por el lado de la ciencia que por el del humanismo. No es que no me atraiga este último, pero es una simple cuestión de prioridades. Por supuesto, me encantaría leer y profundizar en las obras de Kant, Bergson o Borges, pero por  culpa de la rigidez que caracteriza al tiempo, no puedo dedicar todo el que yo quisiera a todos esos temas. Y porque mi procesador, desde luego, está limitado, y ni practicándole un poderoso “overclocking” podría procesar todo lo que está en cola.

Esa curiosidad siempre la he alimentado, pues como se alimentan casi todas las curiosidades, al menos en su etapa inicial: yendo a la librería y cambiando conocimientos por dinero. Pero ahora también existe eso que se ha dado en llamar redes sociales. Y lo bueno que tienen es que sirven de nexo y de puerta de entrada a más conocimiento. Sigues a una persona, que tiene un blog, que hace referencia a un libro, en el que lees otra cosa distinta que despierta tu curiosidad, y sobre la que seguro que encuentras otro blog, y así sucesivamente, de forma que cada vez vás profundizando un poco más, y cuando te das cuenta estás virtualmente rodeado de gente que lo único que hace es alimentar tus ansias de conocimiento. Lo cual es absolutamente maravilloso.

Y sí, me estoy refiriendo a todos vosotros que empleáis vuestro precioso tiempo en ennoblecer el arte de la divulgación científica.

Gracias a vosotros puedo sentir esa dulce impotencia que me provoca saber que nunca podré viajar a la nebulosa de Orión, a pesar de que la puedo ver con mis ojos desnudos y empequeñecidos. Acercarme un poco a una ligerísima concepción de lo inabarcables que son las escalas que miden el tiempo geológico o el tamaño del universo. Comprobar que esas escalas aplican en sentido inverso cuando hablamos de la probabilidad de que algo tan asombrosamente aleatorio como la vida exista o de la medida de las partículas que no vemos pero que gracias al tejido matemático sabemos y tenemos la suficiente certeza de que están ahí. Y  que esas mismas partículas, formando un conjunto e interactuando entre si, dan lugar a esa fascinante emergencia que llamamos mente, esa recursiva herramienta que intenta autoexplicarse y que nos permite maravillarnos de nuestro entorno.

Todo esto es mucho más fácil desde que personas como vosotros ponéis a mi disposición y de todo aquel que sienta un mínimo de curiosidad todas esas colecciones de datos,  experimentos,  pensamientos, hipótesis y razones para refutarlas, y que me permiten darme cuenta de que cada vez soy más pequeño, y que cada vez hay más cosas que no sé, y que cuanto menor se hace la proporción cosas que sé/cosas que ignoro, más emocionante y asombroso me resulta cada nuevo descubrimiento.

El otro día me concedisteis un premio. Nunca había ganado antes un concurso de nada. El premio oficial es un libro de relatos de ciencia ficción, gracias al Carnaval de Física que organizó este blog y su esforzado y generoso dueño. Pero el mayor premio para mí ya me lo lleváis concediendo desde que os leo. Acrecentado con la sensación de que el otro día pasé a formar parte de algo, que puede que sea efímero, virtual y subjetivo, pero cuya huella es ya indeleble.

Hago poco ruido, no soy conocido y me gusta vivir en la penumbra. Y como yo, seguro que hay mucha gente que os lee y que piensa lo mismo. Me permito desde aquí apropiarme de su opinión durante un breve instante, para expresaros mi eterno  agradecimiento por el simple hecho de haceros visibles y ser generosos.

Vosotros sois los verdaderos gigantes. Ni se os ocurra nunca pensar lo contrario.

:-)

Me apetecía muchísimo compartir todo esto.

Desde el profundo aprecio que ya siento por vosotros,

Antonio Lorenzo.

Personalmente me siento más molino de viento que gigante ; ) . Se agradecen mucho las palabras de Antonio para todos los que intentamos poner nuestro granito de arena en el loco mundo de la divulgación. Nos vemos dentro de unos meses en otro Carnaval, pero esta vez no será de física.

tumblr_m3lum5TCS01qznffv (1)

Ya no se redondea como en los viejos tiempos

Hoy he asistido sorprendido a uno de esos momentos que hace que te explote la cabeza. Todo empezó con este tuit:

tuit1

Rápidamente me puse manos a la obra y lo probé en python, con la ventaja de que por las particularidades de este lenguaje siempre tengo instaladas dos versiones en los ordenadores que uso.

Capturapython

Así que en la versión 2.7 de Python vemos el redondeo “de toda la vida”, en el que el redondeo de 1.5 es 2 y el redondeo de 2.5 es 3. Pero si ejecutamos el mismo código para la versión 3.2 de Python tenemos que para ambos casos el resultado es 2.

¿El mundo se ha vuelto loco? Eso es lo primero que pensé, pero resulta que no, todo esto tiene su lógica. En pocos tuits se resolvió el misterio:

tuit2

tuit3

Y de paso se demostró que soy un empanado que no se había enterado de este cambio. El IEEE 754 es un estándar para el tratamiento de números en coma flotante, o hablando para no informáticos: para tratar números con decimales. Y en este estándar se recomienda, desde 2008, que el redondeo que se debe usar es Round half to even. 

Con este redondeo lo que se hace es el redondeo de toda la vida con una excepción para los números que tienen como decimal 0.5. Cuando la parte decimal es 0.5 lo que se hace es redondear al entero par más cercano al número. Por eso al redondear 2.5 lo que obtenemos es un 2 en lugar de un 3, ya que 2 es el número entero par más cercano a 2.5.

¿Por qué? Maldita sea ¡Por qué!

Después de mi sorpresa e ira inicial y de buscar un poco de información me di cuenta de que el asunto tenía mucha lógica. ¿Por qué un número que acaba en 0.5 debe ser redondeado al entero inmediatamente superior? Al fin y al cabo está a medio camino entre dos enteros, elegir el entero superior es simplemente un acuerdo al que hemos llegado los falibles humanos. Lo justo en este caso, sería que en la mitad de los casos el redondeo sea hacia arriba y en la otra mitad, el redondeo fuera hacia abajo. Y precisamente eso es lo que consigue este método.

Además el redondeo clásico provocaba un problema al tratar con números negativos:

Capturapythonnegativos

En el redondeo clásico de números con 0.5 como parte decimal en nuestros programas estábamos eligiendo el entero inmediatamente superior para números positivos y el inmediatamente inferior para números negativos (3 es mayor que 2.5 y -3 es menor que -2.5). Si lo pensamos fríamente, no parece demasiado correcto. Con el nuevo método los números negativos y positivos pueden ser redondeados a su entero inmediatamente superior o inferior.

[Añadido] Como bien apunta darth_suicune en los comentarios, el motivo de escoger este método es más profundo y afecta directamente al hecho de realizar cálculos una vez realizado el redondeo. En banca se lleva usando muchos años este redondeo y también se le denomina redondeo Gaussiano o estadístico. Pues bien, con este redondeo los cálculos posteriores al redondeo (y sobre todo medias) son más precisos que cuando se usa un redondeo estándar.

Así que ya sabéis, hemos redondeado por encima de nuestras posibilidades y ha llegado la troika de los estándares y nos ha dado un buen meneo. Lo único que este meneo nos lo dieron hace años y yo no me he enterado hasta ahora, empanado que es uno.

Así me siento hoy. (Fuente Wikipedia)

Así me siento hoy. (Fuente Wikipedia)

PD: Podéis comprobar en Wolfram Alpha que la cosa va en serio:

round25wa

Viaje locuelo a otras dimensiones con Monte Carlo

Hace tiempo publiqué una entrada sobre la historia de los métodos Monte Carlo, entrada que tuvo su réplica en El escriba matemático, explicando la pequeña locura que fue mezclar Python y Geogebra 5 en fase beta. De estos dos posts surgió esta animación de cálculo del número PI:

Cálculo de PI mediante el método Monte-Carlo

 

Pero ¿se puede afinar más en la búsqueda del número PI por este método? La respuesta es un SÍ rotundo. Una característica importante a la hora de ejecutar un método Monte Carlo es realizar una buena elección del generador de números aleatorios, cosa que no hice.

El cálculo de PI es un ejemplo de integración mediante método Monte Carlo: calculamos el área del sector del círculo y, gracias a la relación entre el área de ese sector y del cuadrado que lo contiene, obtenemos la aproximación de PI.

El área del cuadrado será

A_{cuadrado} = r^2

y el área del sector será

A_{sector} = 1/4 \pi r^2

Si dividimos el área del sector por el área del cuadrado, tendremos:

\frac{A_{sector}}{A_{cuadrado}} = \frac{\pi r^2}{4 r^2} = \pi/4

Si realizamos la división del número total de puntos que tenemos dentro del círculo respecto al número total de puntos que se han señalado en toda la área del cuadrado, tendremos una aproximación del valor de π

\frac{puntos dentro circulo}{puntos totales} \approx \pi/4

En este tipo de problemas, un buen generador de números aleatorios será aquel que consiga cubrir el espacio estudiado lo más homogéneamente posible. De esta forma, habrá más probabilidad de que la razón entre el total de puntos lanzados y los puntos dentro de nuestro objeto sea similar a la razón real entre el volumen de nuestro campo de pruebas y el objeto circunscrito que deseamos medir.

Investigando el tema, descubrí un generador de números pseudoaleatorios llamado secuencia de Sobol (más información aquí) y que distribuye puntos de una forma muy homogénea a lo largo de las dimensiones que elijamos. A continuación, un ejemplo de una distribución de puntos obtenida uniformemente y otra obtenida mediante una secuencia Sobol:

Comparativa de la generación de números aleatorios mediante el generador uniforme de python y la secuencia Sobol

Comparativa de la generación de 1000 puntos aleatorios mediante el generador uniforme de python y la secuencia Sobol

Lo siguiente fue comprobar si realmente se notaba la diferencia al realizar el cálculo de PI usando un método u otro. Aquí tenéis la comparación del cálculo de PI con un generador uniforme de números aleatorios y con un generador de secuencias Sobol:

Cálculo de pi mediante distintos tipos de generadores de números aleatorios.
Cálculo de pi mediante distintos tipos de generadores de números aleatorios. En el eje y tenemos el valor de pi y en el eje x el número de puntos utilizados en el cálculo.

El cálculo se realizó para distintos números de puntos lanzados, hasta un máximo de 100.000 puntos. Se puede ver con claridad la mejora que produce el uso de una secuencia Sobol (azul) respecto a un generador de números aleatorios uniforme. La convergencia hacia el valor de PI es muy evidente cuando usamos secuencias Sobol. Para ver el código fuente usado puedes ir a la parte final.

¿Por qué conformarnos solo con dos dimensiones?

Poco después descubrí un enlace a un artículo, ya con solera, de Gaussianos:

¿Cuál es el volumen de la bola unidad de dimensión N?

Grosso modo lo que nos cuenta es el particular comportamiento del volumen de una esfera de radio 1 a medida que aumentamos el número de dimensiones. Podemos ver cómo en principio el volumen aumenta con el número de dimensiones para luego decrecer, tendiendo hacia cero a medida que aumentamos n. La fórmula para el volumen de una n-esfera de radio 1 es:

V = \frac{\pi^{n/2}}{\Gamma \left ( \frac{n}{2}+1 \right )}

La explicación es bastante lógica; para que un punto del espacio de n-dimensiones se encuentre dentro de la n-esfera de radio 1 correspondiente, debe cumplir que su distancia al origen sea menor o igual a 1, y a medida que aumentamos las dimensiones llega un momento en el que es muy difícil encontrar puntos que cumplan esta condición, ya que para cada dimensión tenemos que sumar el cuadrado de un nuevo término.

La fórmula para saber si un punto está dentro de una n-esfera es:

\sum_{i=1}^n x_i^2 \leq 1

La rabia del asunto es que es imposible visualizar una n-esfera de más de tres dimensiones dentro de un cubo, a su vez, de n-dimensiones. Quizás sea imposible imaginarlo, pero una computadora sí que puede ayudarnos a hacer algo similar: podemos calcular aproximadamente el volumen de una n-esfera de la misma forma que hicimos antes con el área de un círculo. Así que toca lanzar n-puntos a cascoporro para meter el dedo en la yaga y ver si todo esto es cierto.

Para cada dimensión, el cálculo del volumen de la n-esfera de radio 1 será el siguiente:

V_n = V_{n cubo} \frac{puntos\ dentro\ n-esfera}{puntos\ totales}

Siendo el volumen del n_cubo: V_{n cubo} = 2^n ya que cada arista del cubo tendrá longitud 2: [-1,1].

El código para realizar el cálculo sería el siguiente:

#Calculo del volumen de una n-esfera. Como parametro recibe el numero de dimensiones y de puntos a generar, como salida devuelve el volumen
def calc_n_sphere_sobol(n_dimensions, n_points):
    #numero de puntos dentro de la n-esfera
    hits = 0
    #inicializador de la secuencia sobol
    sout = random.randint(1,10000)

    for i in range(0, n_points):
        #generar punto n-dimensional
        p, sout = sobol_lib.i4_sobol ( n_dimensions, sout )

        #transforma el numero del intervalo [0,1] al intervalo [-1,1]
        p = (p*2)-1
        j = 0
        s = 0

        #sumar cuadrado de las componentes
        while (j<n_dimensions and s<=1):
            s+=p[j]**2
            j+=1
        #comprobar si el punto esta contenido en la n-esfera
        if (s<=1):
            hits += 1
    #devolver volumen de la n-esfera
    return  (2**n_dimensions)* float(hits) / n_points

Y los resultados comparados con el volumen dado por la fórmula:

Cálculo del espacio ocupado por una n-esfera de radio 1 para distintas dimensiones

Cálculo del espacio ocupado por una n-esfera de radio 1 para distintas dimensiones. En el eje y tenemos el volumen y en el eje x las dimensiones.

Voi-lá, podemos ver cómo el método Monte Carlo se acerca a la función que describe el volumen de la n-esfera. Aquí están los datos obtenidos para 1.000.000 de puntos lanzados para las distintas dimensiones:

dimensiones volumen n-cubo volumen n-esfera Monte Carlo Puntos dentro
1 2 2,000000 2,000000 1000000
2 4 3,141593 3,141700 785425
3 8 4,188790 4,188096 523512
4 16 4,934802 4,936320 308520
5 32 5,263789 5,263712 164491
6 64 5,167713 5,174656 80854
7 128 4,724766 4,734080 36985
8 256 4,058712 4,066048 15883
9 512 3,298509 3,289088 6424
10 1024 2,550164 2,516992 2458
11 2048 1,884104 1,837056 897
12 4096 1,335263 1,314816 321
13 8192 0,910629 0,950272 116

El número de puntos que cumplen las condiciones de la n-esfera disminuye con el número de dimensiones, pero a la vez aumenta el volumen del n-cubo en el que está circunscrita. La relación máxima entre los puntos “acertados” y los lanzados respecto al volumen del n-cubo se da cuando llegamos a cinco dimensiones, y a partir de ahí el volumen de la n-esfera empezará a converger hacia cero.

Otra consideración a tener en cuenta es que cada vez que aumentamos una dimensión, el volumen del n-cubo aumenta. Como consecuencia, la muestra de 1.000.000 de puntos es menos significativa, por lo que los resultados empeoran si no aumentamos el número de puntos aleatorios utilizados.

∞∞∞

Este artículo se publicó originalmente el 12 de diciembre de 2012 en El escriba matemático, un blog donde incluyo artículos más técnicos y relacionados con la programación y herramientas matemáticas. Le tengo especial cariño a esta historia porque fue mi primera participación en un carnaval de matemáticas y tuvo su premio.

Este artículo participó en la 3.141592653 Edición del Carnaval de Matemáticas que alojó Que no te aburran las M@tes y ganó el premio al mejor artículo, porque los informáticos que estudiamos física a veces les caemos bien a los matemáticos :P

Precioso, ¿verdad?

Referencias y enlaces de interés

La historia del método Monte Carlo: con ordenadores prehistóricos, bombas nucleares y personajes ilustres como Fermi, Ulam y Von Neumann.

Código fuente usado para realizar las pruebas

¿Cuál es el volumen de la bola unidad de dimensión N? en Gaussianos

Secuencias Sobol en Wikipedia

Implementación de Sobol en Python

El lado débil de la física (II): rompiendo la paridad

Hay una premisa que siempre se cumple antes de exclamar “¡eureka!”. En primer lugar debe existir un “qué curioso“, que lleve al científico a buscar la explicación que provocará el conocimiento. A mediados del siglo XX, uno de los “qué curioso más importante era el enigma Tau-Theta.

En la anterior entrega vimos cómo Fermi había propuesto una teoría de la interacción débil, pero que solo funcionaba bien en primeras aproximaciones. En esta entrega vamos a conocer los pasos que se dieron antes de  llegar a una nueva teoría para la interacción débil.

debil2

El enigma Tau-Theta

Era el inicio de la década de los 50, cada vez se tenían más resultados de estudios de los rayos cósmicos y dos nuevas partículas habían aparecido en el escenario: Tau y Theta. Estas partículas se descubrieron por el resultado de sus desintegraciones, que era el siguiente:

desintegraciones

En primer lugar está la desintegración de la partícula Theta, que se desintegraba en dos piones y en segundo lugar la de Tau, que lo hacía en tres. Sin embargo, otros datos obtenidos para estas partículas indicaban que tenían una misma masa y un mismo tiempo de vida medio. Cuando dos partículas coinciden en estos dos parámetros, lo lógico es pensar que se trata de la misma partícula. Entonces… ¿por qué se identificaban como dos partículas distintas?

La respuesta a esta pregunta la encontramos en una ley de conservación. A los físicos les encantan las magnitudes que se conservan. Las leyes de conservación del momento lineal, del momento angular y de la energía son las herramientas más poderosas de las que dispone un físico para estudiar la naturaleza y, en física de partículas, cobran un papel determinante. En aquella época había otra magnitud cuya conservación se cumplía en toda la física de partículas: la paridad.

En el caso de las partículas Tau y Theta, los resultados de su desintegración tenían distinta paridad (+1 y -1 respectivamente).

Los comportamientos distintos cuando nos movemos “al otro lado del espejo” son comunes, como ocurre con la quiralidad. Si habéis estudiado química sabréis que dos moléculas que se diferencian por ser una imagen especular una de la otra, pueden tener propiedades muy diferentes. Y si no habéis estudiado química, aquí tenéis a Daniel Torregrosa recuperando un vídeo magnífico de Breaking Bad en el que Walter White lo explica de manera magistral:

Pero en el mundo cuántico se había demostrado que la paridad se conservaba en la interacción electromagnética y en la interacción fuerte, así que se suponía que en la interacción débil también debía ser así.


Rompiendo la paridad

Martin Block, un experimentador, una noche me dijo:

–¿Por qué están todos insistiendo tanto en el principio de paridad? A lo mejor, la partícula tau y la theta son la misma partícula. ¿Qué pasaría si el principio de paridad fuera falso?

Estuve pensando un momento y dije:

–Ello implicaría que las leyes de la naturaleza serían diferentes para las manos derecha e izquierda, y que habría una forma de definir la orientación de las manos derecha e izquierda por medio de fenómenos físicos. No veo que eso sea tan terrible. Seguro que en algún sitio ha de tener malas consecuencias; pero no lo sé. ¿Por qué no les preguntas mañana a los especialistas?

–No, a mí no me escucharían. Pregúntales tú –me dijo.

Extracto de ¿Está usted de broma, Sr Feynman?

Y dicho y hecho, Richard Feynman se levantó en la reunión del día siguiente y lanzó la pregunta, indicando que lo hacía en nombre de Martin Block. No era una reunión cualquiera, en la sala se encontraban científicos de la importancia de Oppenheimer y Gell-Mann. Además en la sala se encontraban unos jóvenes investigadores chinos, Lee y Yang, que según Feynman contestaron con “algo complicado, que como de constumbre no entendí muy bien”. Lo que si pudo entrever Feynman de la respuesta de Lee, es que la conservación de la paridad todavía era una cuestión no resuelta.

La pieza que se necesitaba para completar el puzle de las partículas tau y theta era la ruptura de la paridad, pero se trataba de un tema prácticamente tabú dentro de la comunidad científica. Lee y Yang decidieron que era hora de cortar definitivamente el nudo gordiano del enigma tau-theta y presentaron el artículo Question of Parity Conservation in Weak Interactions.

Datos experimentales recientes indican una masa y tiempo de vida prácticamente iguales de los mesones Tau y Theta. Por otro lado, análisis de los productos de desintegración de Tau sugieren que, basándose en la conservación del momento angular y de la paridad, Tau y Theta no son la misma partícula. Este hecho plantea una situación muy desconcertante que ha sido ampliamente discutida.

Una forma de evitar esta dificultad es asumir que la paridad no se conserva, por lo que Tau y Theta serían dos modos diferentes de desintegración de la misma partícula, que necesariamente tendría un único valor para su masa y tiempo de vida. En este artículo nos gustaría analizar esta posibilidad ante el panorama de la evidencias experimentales existentes a favor de la conservación de la paridad. Es fácil ver que existen experimentos que indican la conservación de la paridad en las interacciones electromagnética y fuerte con un gran nivel de exactitud, pero para la interacción débil la conservación de la paridad es solo una hipótesis extrapolada y no apoyada por evidencia experimental (incluso se podría decir que el enigma Tau-Theta es una indicación de que la conservación de la paridad se viola en interacciones débiles. Este razonamiento, en cualquier caso, no puede tomarse en serio debido a la escasez de nuestro conocimiento actual respecto a las partículas extrañas, pero nos incentiva al estudio de esta cuestión.). Para determinar de forma inequívoca si la paridad se conserva en interacciones débiles, debe realizarse un experimento que determine si las interacciones débiles diferencian la derecha de la izquierda. Algunos de estos posibles experimentos serán tratados en este artículo.

Traducción propia de un extracto de Question of Parity Conservation in Weak Interactions.

Lee y Yang eran físicos teóricos, por lo que necesitaban a un físico experimental con la capacidad suficiente para llevar a cabo alguno de los experimentos que habían propuesto. Por suerte, Lee conocía a Chieng-Shiung Wu, una de las mejores físicas experimentales del momento y Lee la convenció para iniciar esta aventura.

Hace unas semanas pedí a Laura Morrón que me ayudará para hacer algo especial con Wu. Siempre me han encantado sus biografías de mujeres científicas y era la oportunidad perfecta para complementar este artículo. De esta colaboración entre Los Mundos de Brana y El zombi de Schrödinger surgió esta magnífica biografía de Madame Wu, cuya segunda parte se publica a la vez que este artículo:

Chien- Shiung Wu, la gran física experimental (I): Primeras conquistas.

Chien- Shiung Wu, la gran física experimental (II): Al otro lado del espejo.

El experimento

El experimento que decidió realizar Wu en 1956 fue la medida de la asimetría bajo paridad de las desintegraciones beta del Cobalto-60. Para ello tuvo que trasladarse al National Bureau of Standards (conocido ahora como NIST), donde se encontraban los profesionales y el equipo necesario para trabajar a temperaturas cercanas al cero absoluto. Esto era necesario ya que el experimento trataba de medir las desintegraciones del Cobalto-60 para distintas direcciones en su rotación. Por ello, el Cobalto-60 se situaba en unos cristales especiales paramagnéticos, que se llevaban a temperaturas cercanas al cero absoluto, para luego aplicar un pequeño campo magnético. Con esto se conseguía que la mayor parte de los átomos de Cobalto-60 tuvieran un eje de giro paralelo al campo magnético.

El proceso era sumamente complejo: el cristal con los átomos de Cobalto-60 tenía que ser magnetizado y desmagnetizado en sucesivas etapas, para llegar al nivel de magnetización deseado, y se debía evacuar el calor producido en el proceso. Además, el aparato contador tuvo que situarse muy cerca de la muestra para evitar errores.

aparatoexperimentalWu

Dispositivo experimental usado por Wu y sus colegas.

El experimento se realizaba primero para dotar al Cobalto-60 de un eje de rotación y posteriormente para dotarlo del opuesto, con la idea de medir diferencias en los resultados de desintegración de este átomo. Los resultados fueron claros, la paridad no se conservaba.

figurepg

Hoja de cuaderno de Ernest Ambler, uno de los colaborades en el experimento de Wu, en la que acaba escribiendo una nota al principio de la misma indicando el descubrimiento: PARITY NOT CONSERVED!

En 1957, Lee y Yang recibieron el premio Nobel por su artículo sobre la ruptura de la paridad en la interacción débil. Wu no fue galardonada. Algunos autores indican que esto se debió a que cualquier físico experimental de cierto nivel podría haber hecho el experimento una vez publicado el artículo de Lee y Yang. Paparruchas, se han dado premios Nobel por mucho menos que por lo que hizo Wu. No fue la primera ni la última vez que en los premios Nobel se metió la pata hasta el fondo.

Una nueva teoría

La confirmación de Wu fue el pistoletazo de salida para algunos de los físicos más importantes del momento. Se trataba de explicar por qué se producía esa ruptura de la paridad, ¿qué tenía de especial la interacción débil?

Durante la conferencia, me alojé en casa de mi hermana, en Syracuse. Me llevé el artículo a casa y le dije:

–No entiendo estas cosas que dicen Lee y Yang. Todo es muy complicado.

–No –respondió ella–. No es que no lo puedas entender, sino que no lo has inventado tú. No está hecho por ti y a tu manera. Lo que tienes que hacer es imaginarte que eres otra vez estudiante, llevarte el artículo a tu cuarto, leer todas y cada una de las líneas y comprobar las ecuaciones. Entonces lo entenderás muy fácilmente.

Extracto de ¿Está usted de broma, Sr Feynman?

Por suerte, el momento de duda de Feynman duró poco. Leyendo el artículo, Feynman se acordó de un trabajo que había hecho hacía años sobre ecuaciones de asimetría lateral. Ahora todo le resultaba claro. Rápidamente esbozó una teoría que mejoraba los resultados de la que Lee y Yang habían creado para explicar la ruptura de la paridad, aunque todavía faltaba una pieza por encajar.

Tras una temporada tocando los bongos en Brasil, Feynman volvió a Caltech, donde preguntó a un grupo de físicos experimentales si había alguna novedad. Jensen, Wapstra y Boehm lo sentaron en un taburete y le relataron todos los resultados experimentales que se habían producido hasta la fecha. Finalmente hubo un comentario: “Murray (Gell-Mann) dice que la descomposición Beta del neutrón podría no ser S y T, podría ser  V y A.

¿Y qué es eso de V-A? 

La densidad de energía de la interacción débil entre un electrón y un antineutrino sería:E_{int;W} = \vec{j}_W \vec{j(-)}_W Lo que se propuso es que cada uno de estos vectores eran de la forma:

\vec{j}_W = \vec{v} - \vec{a}

donde v es de tipo vectorial y a es vectorial axial. ¿Y qué es algo de tipo vectorial axial? Pues por ejemplo el producto vectorial. ¿Os acordáis de la regla de la mano derecha?

En el producto vectorial la dirección del vector resultante se obtiene aplicando la regla de la mano derecha imaginando que rotamos el vector A para juntarlo con B. Y una de nuestras manos es siempre el mejor ejemplo que podemos usar para explicar la paridad.

Aquí tenéis el resultado de un producto vectorial frente al espejo

frente al espejo

Para llevarnos un vector “al otro lado del espejo” lo que hacemos es multiplicar todas sus coordenadas por (-1). Aquí tenéis el resultado del producto vectorial cuando nos llevamos los vectores U y V al otro lado del espejo:

tras el espejo

Obtenemos el mismo vector producto vectorial que en el primer caso. Parece lógico, ya que el producto vectorial es al fin y al cabo un producto y menos por menos es más. Así que tenemos un tipo de vectores que al pasar al otro lado del espejo se comportan de manera diferente. Justo lo que necesitaban los físicos para explicar el comportamiento anómalo de los resultados de las desintegraciones beta respecto a la paridad.

Feynman dio un salto y exclamó: —¡En tal caso lo entiendo TOOODOOOOOO! —Ante la mirada atónita de sus colegas. La pieza que le faltaba por encajar había hecho “clic”, y se sucedieron varios días de trabajo intensivo en los que Feynman completó su teoría.

Pensé en Dirac, que durante cierto tiempo tuvo su ecuación –una ecuación nueva, que explicaba el comportamiento de un electrón–; yo tenía una nueva ecuación para la descomposición beta, que no era tan fundamental como la de Dirac, pero que era buena. Esta fue la única vez que he descubierto una nueva ley.

Gell-Mann y Feynman, sus piques eran legendarios.

Gell-Mann y Feynman, sus piques eran legendarios.

En realidad Feynman no estaba solo; Gell-Mann llegó a las mismas conclusiones y finalmente, y a pesar del pique que existía entre ellos, publicaron conjuntamente su nueva teoría sobre las interacciones débiles. Un poco antes se les adelantaron Robert Marshak y George Sudarshan con una publicación parecida. El camino hacia la unificación de la interacción débil y la interacción electromagnética había comenzado.

Esta entrada ha sido galardonada con el premio ED a la excelencia en la divulgación científica en conjunto con los dos artículos de Los Mundos de Brana sobre la vida de Chieng Sung Wan

Este artículo ha sido galardonada con el premio ED a la excelencia en la divulgación científica en conjunto con los dos artículos de Los Mundos de Brana sobre la vida de Chieng-Shiung Wu

Más información.

Chien- Shiung Wu, la gran física experimental (I): Primeras conquistas.

Chien- Shiung Wu, la gran física experimental (II): Al otro lado del espejo.

El lado débil de la física (I): el inicio.

Richard P. Feynman. ¿Está usted de broma, Sr Feynman? Alianza editorial.

Francisco Ynduráin. Electrones, neutrinos y quarks. Drakontos Bolsillo.

T.D. Lee y C.N. Yang. Question of Parity Conservation in Weak Interactions.

C.S. Wu, E. Ambler, R.W. Hayward, D.D. Hoppes y R.P. Hudson. Experimental test of parity conservation in Beta Decay.

Tau theta puzzle. Wikipedia.

The fall of parity. NIST. De este recurso salieron las imágenes del experimento de Wu.

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 1.315 seguidores

%d personas les gusta esto: