La medida precisa de la masa del bosón W, en un plis-plas

Por Alberto Ruiz Jimeno

Nuestro Universo se formó hace trece mil setecientos millones de años, aproximadamente, tras la Gran Explosión (“Big-Bang”), en que inició su expansión y enfriamiento. La energía del Universo produjo una sopa de partículas caliente, que contenía todos los tipos de partículas de radiación y materia, que luego detallaremos, y que fue evolucionando, dando lugar, tras unos pocos minutos, a la formación de los primeros núcleos de Hidrógeno y Helio, que todavía constituyen los elementos más abundantes del Universo.

Ese gas caliente siguió expandiéndose y enfriándose durante, aproximadamente, trescientos mil años, lo que dio lugar a la etapa de la materia del Universo, en la que se formaron los primeros átomos, al combinarse los electrones con los núcleos de hidrógeno y helio.

Desde ese momento, radiación y materia evolucionaron de forma independiente, haciendo al Universo “transparente” a la radiación electromagnética, la llamada “radiación cósmica de fondo”. Al decir “transparente” nos referimos a que esa radiación primigenia, constituida por ondas electromagnéticas, también llamadas fotones, han sobrevivido hasta nuestros días, permitiendo observarlas y constituyendo el objeto de una buena parte de los estudios cosmológicos, como los que nos ha proporcionado el satélite Planck de la Agencia Espacial Europea.

Tras varios cientos de millones de años más, la atracción gravitacional de los gases de materia, enfriados, dio lugar a la formación de las primeras estrellas, como la ultima recientemente observada por el satélite Hubble, la estrella Eärendel, cuya formación se cifra en unos novecientos millones de años tras el Big-Bang.

El enfriamiento y expansión del Universo continuó, formándose los primeros planetas, como nuestra propia Tierra, cuya edad está cifrada en unos cuatro mil cuatrocientos millones de años.

La aparición de la vida en la Tierra se cifra en unos cuatro mil millones de años, pero la aparición de vida inteligente es muy posterior. De hecho, los indicios más antiguos de Homo Sapiens se datan en unos trescientos mil años.

Continuando con nuestro desarrollo evolutivo, nuestra historia más antigua data de varios miles de años, el nacimiento de la ciencia moderna es de hace pocas centurias y las grandes ideas de la ciencia moderna surgieron y se desarrollaron el siglo pasado.

Por lo tanto, utilizando el año como unidad temporal, han pasado 13700 millones de años desde el Big-Bang (orden de magnitud que expresamos como 1010 años) y apenas 100 (102) años desde el desarrollo de la mecánica cuántica que estableció el formalismo matemático y las ideas físicas subyacentes al comportamiento del mundo microscópico, que trataré ahora de sintetizar.

Como he indicado anteriormente, el Universo se hizo transparente a las observaciones cosmológicas de la radiación de fondo cuando tenía unos 300000 años. Previamente a esa edad el Universo es opaco y su evolución hay que deducirla de la teoría y comprobarla mediante experimentos que simulen su comportamiento, para lo cual disponemos de los aceleradores de partículas. Estas auténticas máquinas del tiempo son capaces de simular la sopa caliente de partículas y radiación existentes en el Universo, cuando solo tenía una fracción de segundo de edad.

Para continuar con la evolución del Universo, pero ahora yendo hacia atrás en el tiempo, es decir acercándonos al Big-Bang, es mejor utilizar como unidad de tiempo el segundo (1 año tiene, aproximadamente, treinta millones de segundos, es decir que, en términos de esas potencias de 10 que hemos indicado, la unidad de segundo es de un orden      10-7 respecto de la unidad año)

Pues bien, cuando el Universo tenía 1 segundo de vida estaba inmerso en esa etapa de sopa de partículas, tan caliente que la formación de núcleos atómicos estables no era posible. Sin embargo, sí se estaban formando ya los nucleones (protones y neutrones) que iban a dar lugar, posteriormente a los núcleos atómicos. Además de estos nucleones se formaron otras estructuras materiales compuestas de quarks (y antiquarks, como luego explicaremos), del mismo modo que ocurría con los nucleones. A estas estructuras (nucleones, piones, kaones…) les llamamos hadrones y la etapa de formación transcurre desde que el Universo tenía apenas una cienmilésima de segundo (10-5 segundos) hasta la etapa de formación de los núcleos atómicos de hidrógeno y helio (100 segundos). Previamente, la sopa cósmica muy caliente sufrió diversas etapas que se extienden hasta la era de Planck, 10-43 segundos.

El estudio de estas primeras etapas de vida del Universo se realizan simulando su comportamiento, mediante choques de partículas o de hadrones cargados eléctricamente, aceleradas a velocidades cercanas a la velocidad de la luz, mediante potentes aceleradores de partículas. Estas colisiones que producen una enorme densidad de energía, transforman la misma en nuevas partículas que se mueven en todas las direcciones y dejan su impronta en grandes detectores de partículas, auténticas catedrales de producción de datos de conocimiento sobre la dinámica del Universo. Los actuales y recientes aceleradores de partículas, como el Tevatron de Fermilab (Chicago), o el LHC del CERN (Ginebra), son capaces de simular el comportamiento del Universo cuando éste tenía, aproximadamente, 10-10 segundos de vida.

El modelo teórico que rige el comportamiento del Universo a esas energías, que se corresponde, de acuerdo con la expansión del Universo, a escalas de tamaño del orden de  10-19 metros, es decir de una cienmilésima parte del tamaño de un núcleo atómico, es el denominado Modelo Estándar de la Física de Partículas, la teoría física que describe cuales son las componentes elementales de la materia conocida del Universo y cuales son las fuerzas fundamentales que rigen su comportamiento a nivel microscópico hasta esas escalas de longitud del Universo primitivo, ya citadas.

Por lo tanto, el modelo estándar de la Física de Partículas describe cuales son los bloques elementales, es decir sin componentes en su estructura, de la materia conocida. Y también describe cómo y cuáles son las interacciones básicas entre estos bloques. Realmente, es capaz de describir tres de las interacciones fundamentales. La cuarta, que es la gravitatoria, es despreciable a ese nivel submicroscópico, aunque sea la que rige, fundamentalmente, a las grandes escalas que son el campo de estudio de la Astrofísica.

De este modo, la Física de las partículas elementales y la Astrofísica se complementan en su estudio, respectivamente, de lo muy pequeño y lo muy grande, proporcionando un conocimiento consistente de la evolución del Universo desde sus comienzos.

¿Y qué nos dice el Modelo Estándar de la Física de Partículas? Hay que poner en contexto el modelo, que se desarrolló durante la segunda mitad del siglo XX, a partir de los conocimientos del mundo subatómico, tras los avances del conocimiento en física cuántica, desarrollada en la primera mitad del siglo XX y que ha sido verificado durante cincuenta años, culminando con el descubrimiento del bosón de Higgs en el año 2012. Es un modelo teórico muy bien formulado, muy robusto, cuyas predicciones han sido verificadas, con altísima precisión, en todos los experimentos hasta la fecha, con muy pocas discrepancias que están todavía en discusión por parte de la comunidad científica.

Sin embargo, a pesar de su robustez y capacidad de predicción, solo puede explicar el 4% de la materia del Universo, no dando cabida a un 26% de materia oscura y un 70% de energía oscura, que predicen las observaciones en cosmología y astrofísica.  Además, a pesar de tener un número no excesivo de parámetros libres, plantea muchas dudas fundamentales, aún no explicadas satisfactoriamente, como la asimetría existente entre materia y antimateria, la inexistencia de una teoría cuántica para la gravitación, etc.… Por lo tanto, tenemos que aceptar que es un modelo teórico muy bueno, pero insuficiente para explicar el Universo en su globalidad, es una teoría efectiva muy potente, pero que debe extenderse para poder explicar etapas más cercanas al Big-Bang de las que exploramos con los aceleradores de partículas actuales. El problema es que no sabemos cuál es la dirección adecuada para investigar en modelos que extiendan la capacidad del modelo estándar y cualquier fallo que se observe en sus predicciones pueden ayudar a definir esa dirección. Por eso, la física de precisión, como la que nos ocupa en este artículo, es muy importante para avanzar en nuestro conocimiento del Universo.

Vamos ahora a describir resumidamente lo que dice el Modelo Estándar.

Por una parte, dice que la materia conocida del Universo está constituida por partículas elementales, de las cuales hay: 6 tipos de quarks (u,d,s,c,b,t) y 6 tipos de leptones (electrón, muón, tau y tres tipos de neutrinos). Además, hay otros 6 antiquarks y otros 6 antileptones, los componentes de la antimateria, que coexistían con los componentes de la materia en el origen del Universo. Estas doce partículas de materia y sus correspondientes de antimateria tienen un conjunto de propiedades que las distinguen entre sí.  Algunas de estas propiedades son más familiares, como la masa o la carga eléctrica; otras, son menos conocidas, como la esperanza de vida, que llamamos vida media; otras, finalmente, son propiedades que no tienen su análogo en la física a la que estamos más habituados, como es el spin, el isospin débil, la carga de color…

El spin es una propiedad cuántica, difícil de explicar de forma intuitiva, siendo algo parecido a la descripción del movimiento de rotación de una peonza. Pero, en el caso de las partículas elementales los posibles valores del spin son discretos, no continuos, lo cual es característico de la física cuántica (la palabra “cuanto” está íntimamente ligada a la palabra “discreta”, es decir no continua). Pues bien, el spin de las partículas elementales que he descrito, los quarks y los leptones, tiene el valor de 1/2. A todo el conjunto de quarks y leptones se les denomina fermiones, en honor al físico ítalo-americano Enrico Fermi, que, entre otras muchas de sus aportaciones, estableció como se comportan estos fermiones globalmente, la denominada estadística de Fermi-Dirac.

De los 6 quarks, solo los quarks u y d son estables. Los demás tienen una vida media corta y se desintegran en los quarks u y d. Por su parte, el electrón es estable, pero no lo son el muon ni el tau. Los neutrinos, a su vez, son estables, pero pueden cambiar de tipo a lo largo de su vida, oscilan entre sí.

De hecho, los quarks principales de la composición de los protones y neutrones del núcleo atómico son los quarks u y d. Así, podríamos decir que los átomos de todos los elementos están compuestos de los quarks u y d, por una parte (los núcleos atómicos) y, por otra parte, los electrones, en sus órbitas alrededor del núcleo. El resto de quarks y leptones se pueden producir en las colisiones de los aceleradores o en los procesos cósmicos, como la dinámica de las estrellas, etc.…, pero en el Universo primitivo, el mismo que reproducimos con los aceleradores, tenían la misma importancia que los primeros, en esa sopa cósmica caliente que constituía la materia del Universo.

Además de los fermiones hay otras doce partículas elementales que son mediadoras de las fuerzas fundamentales que rigen el comportamiento de la materia conocida. Estas fuerzas se establecen mediante el intercambio de dichos mediadores entre otras partículas, de modo que unas ganan la energía que las otras pierden, al intercambiarse estos mediadores. Los mediadores tienen todos spin entero y se les denomina bosones, en honor al físico indio Satyendra Nath Bose, que estableció cómo se comportan estos bosones globalmente, la denominada estadística de Bose-Einstein.

Las fuerzas fundamentales del Universo son: la fuerza electromagnética, cuyo mediador es el fotón; la fuerza nuclear fuerte, que posee ocho tipos de mediadores, los gluones; la fuerza nuclear débil, cuyos mediadores son los bosones Z, W+ y W. Finalmente, la fuerza gravitatoria, la única que aún no se ha podido describir en el marco de la teoría cuántica (sí se describe en el marco de la Relatividad General de Einstein) que vendría mediada por el gravitón. Como aún no se ha podido describir, no entra en el marco del Modelo Estándar y, por ello, solo son 12 bosones los que entran al modelo, es decir el fotón, ocho gluones, el bosón Z y los dos bosones W.

Todavía hay una partícula más en el modelo, el bosón de Higgs, que adquiere una importancia especial, porque es la que constituye el campo de Higgs, cuya interacción con el resto de partículas les dota de la masa de las mismas.

Las propiedades de las partículas pueden estar relacionadas entre sí, de acuerdo a la propia construcción del modelo estándar. Y así es el caso de la masa de los bosones W (positivo o negativo, tienen la misma masa), que nos ocupa en este artículo. De hecho, se puede establecer una relación muy bien definida, al nivel más simple, entre la masa del bosón W, la carga eléctrica del electrón, la masa del bosón Z y la vida media del muon. A ello se le pueden añadir otras correcciones de mayor orden que nos proporciona el modelo, en donde intervienen, en particular, la masa del quark top y la masa del bosón de Higgs.

En concreto, el valor obtenido por el modelo estándar, a partir del conocimiento muy preciso de los otros parámetros citados, es MW = 80357 MeV/c2, con una precisión de 6 MeV/c2. [A notar que las unidades MeV/c2 son unidades de energía (mega-electron-voltios) dividido por la velocidad de la luz al cuadrado (c2), de acuerdo con la relación de Einstein que equipara masa y energía según la fórmula E = mc2)]

Por ello, una observación y medida muy precisa de la masa del bosón W es una prueba del modelo estándar, que predice dicha masa con una precisión del 0,01%, por lo que la medida experimental debe enfrentarse a una precisión del mismo orden, para poder comparar teoría y experimento.

Para poder medir con precisión la masa del bosón W, como lo hemos realizado recientemente en el experimento CDF del acelerador Tevatron del laboratorio Fermilab en Chicago (EEUU), se requieren varios pasos: producir los bosones W; detectar sus productos de desintegración que se generan en el mismo momento de producción, ya que dichos bosones W se desintegran inmediatamente después de ser producidos; analizar las características del resto de las partículas producidas conjuntamente con dichos productos de desintegración; ajustar los resultados de todas las medidas, para deducir de las mismas el valor de la masa del bosón W; extraer de dichos ajustes, tanto el valor de la masa del bosón W, como los errores debidos a la estadística limitada, los debidos a los efectos sistemáticos ligados al proceso de detección, los que provienen de la propia teoría y los ligados al método de ajuste. Finalmente se expresa el valor medido junto con el error y se compara con el valor predicho por el modelo estándar. Lo más conveniente es que el valor de la masa que se está obteniendo sea “ciega” durante todo el proceso de análisis y ajuste, desvelándose únicamente al final, con el fin de asegurar que no hay ningún sesgo debido al conocimiento previo de la misma. Así se ha realizado en el análisis que hemos publicado la colaboración CDF, en la revista Science.

Vamos a ir viendo de forma muy resumida todos estos pasos, en el caso del experimento CDF.

En primer lugar, fué necesario crear y acelerar protones y antiprotones, en el acelerador Tevatron. Los protones se obtienen de una fuente de Hidrógeno, de cuyos átomos se separan electrones y protones, mediante un potencial eléctrico ionizante e imanes que enfocan el haz de protones hacia las diferentes etapas de aceleración, hasta llegar al Tevatron. Los antiprotones se obtienen haciendo chocar protones contra un blanco fijo y extrayendo los antiprotones, mediante campos magnéticos, del conjunto de partículas producidas en los choques, almacenándolos en un acumulador y, finalmente, conduciéndolos hacia el Tevatron.

En el Tevatron, un acelerador circular de 6,3 Km. de circunferencia, constituido por una matriz de imanes superconductores y cavidades aceleradoras, protones y antiprotones fueron acelerados hasta energías próximas al Teraelectronvoltio. Los haces contenian del orden de cien mil millones de protones o antiprotones, en un paquete de dimensiones aproximadas, transversales a la dirección de movimiento, de 2 mm x 2 mm y longitudinal de 50 cm. Se inyectaron 36 haces de protones y antiprotones de estas características, que circulaban en direcciones opuestas por el Tevatron, cruzándose en dos puntos del mismo, donde se habían instalado sendos detectores, correspondientes a los experimentos CDF y D0.

Durante el cruce de los haces se podía producir una colisión, normalmente entre un quark del protón y un antiquark del antiprotón, en la que toda la energía de los mismos, así como la del resto de los componentes de protón y antiprotón, se transforma en nuevas partículas que salen en todas las direcciones y son detectadas por los detectores de los experimentos.

Los grandes detectores, como CDF, están constituidos por cientos de miles de elementos de detección, como un gran rompecabezas de piezas ensambladas con altísima precisión, en torno al punto de colisión de los haces, cubriendo prácticamente todos los ángulos. Se configuran como una cebolla, con sus capas centrales, más próximas al punto de colisión, encargadas de señalizar la trayectoria de las partículas cargadas eléctricamente. Después hay un gran solenoide que proporciona un gran campo magnético que permite curvar las trayectorias de las partículas cargadas eléctricamente, para medir el momento lineal de las mismas, a partir de su curvatura. Luego se encuentran los calorímetros electromagnéticos, que detectan la energía de electrones y fotones, seguidos por los calorímetros hadrónicos, encargados de medir la energía de los hadrones. Finalmente se encuentran las cámaras de muones, para detectar las trayectorias de los mismos. Otros muchos elementos, como detectores de identificación, detectores de control, alineamiento, etc…, completan el conjunto del sistema experimental de detección.

Cada uno de los subdetectores citados está compuesto por una gran cantidad de módulos que recogen las señales electrónicas producidas por el paso de las partículas del suceso y las envían a los sistemas de cómputo y almacenamiento, para su posterior análisis. Un conjunto de granjas de computadores realiza la reconstrucción, proporcionando los datos de reconstrucción del suceso, constituido por los valores de las principales magnitudes de interés, como son la dirección, momentos lineales y energías de cada una de las partículas producidas, su identificación, etc… para su análisis posterior por parte de los científicos de la colaboración en cada uno de los canales físicos de interés.

En el caso de la medida de la masa del W los sucesos seleccionados para realizar el análisis fueron aquellos en los que se producía un bosón W, cargado positiva o negativamente, que decaía en un leptón o antileptón y el antineutrino o neutrino correspondiente. Solo consideramos los leptones electrón y muón (y sus antileptones, positrón y antimuón). Por lo tanto, los sucesos de interés, seleccionados para este estudio, constituían de un electrón o muón ( o sus antipartículas), un antineutrino electrónico o muónico ( o sus antipartículas) y chorros de hadrones procedentes del resto del protón y antiprotón.

Solo se seleccionaron los sucesos bien identificados y medidos, para evitar sucesos espúreos. También se seleccionaron sucesos de producción del bosón Z, decayendo a leptones, porque nos sirvieron para la verificación de la bondad del análisis, ya que el bosón Z está muy bien medido por experimentos previos, del CERN principalmente.

Tras la rigurosa selección, el número de sucesos a analizar fue de varios millones de bosones W, como se observa en la Tabla adjunta, en la que se ha simplificado el texto, de modo que, por ejemplo, electrón, quiere decir electrón+ antineutrino electrónico… La selección es muy limpia, pero aún contenía un 0,5% de sucesos mal identificados que suponían ruido de fondo.

Para poder proceder a un análisis riguroso y preciso, era necesario calibrar los subdetectores, es decir las cámaras de trazas, los calorímetros y las cámaras de muones, además de conocer con precisión el alineamiento de todos sus componentes. Es una tarea muy compleja, porque, por ejemplo, la cámara central de trazas consistía de más de treinta mil elementos. Para alinearlos se usaron 450.000 sucesos de radiación cósmica, es decir muones procedentes de la radiación externa a la Tierra, que atraviesa el detector. El proceso, muy complejo y delicado, permitió el alineamiento con precisión muy buena, del orden de las micras.

Tras el alineamiento, para deducir la escala global en la medida de los momentos lineales y ligeras deformaciones o falta de uniformidad del campo magnético, se utilizaron medidas de la masa de unas partículas compuestas muy bien conocidas, llamadas J/psi y Upsilon que decaen en muon+antimuon, corrigiendo los valores de os parámetros de reconstrucción para ajustar bien las masas medidas de dichas partículas J/psi y Upsilon a su valor real, conocido con enorme precisión. Finalmente, el análisis se validó, utilizando los bosones Z.

También se calibraron adecuadamente los calorímetros comparando las medidas de energía y de momento lineal y validando el resultado con bosones Z decayendo a electrón-positrón.

En el proceso de ajuste, los resultados de las medidas hay que compararlas con las esperadas, por lo que hay que generar sucesos simulados de acuerdo al modelo estándar y ver cual es el comportamiento esperado del detector. La comparación entre las distribuciones de los sucesos generados y los observados es importante para corregir diferentes efectos sistemáticos. Además, la propia cinemática de los bosones W viene determinada por las distribuciones de momento interno de las componentes de los protones y antiprotones, para los que se utilizan los datos conocidos por otros experimentos previos, introducidos mediante tablas teóricas. Esta componente del análisis es la que más contribuye al error sistemático final.

Tras otras correcciones por sucesos de ruido, debidos a producción de bosones Z y otros, pero reconstruidos como si fueran W, erróneamente por el detector, se procede a ajustar distribuciones de diferentes variables que dependen de la masa del W, extrayendo su valor más probable y estimando el error de dicha medida.

El resultado final resultó ser Mw = 8433 MeV/c2 con una precisión de 9 MeV/c2.

Este valor se desvía del valor esperado por el modelo estándar por 7 sigmas, suponiendo que los errores de medida siguen una distribución gaussiana, lo que correspondería a que la probabilidad de que sea debido a una fluctuación cuántica fuera de 1 en 390 682 215 445. Además, cuando se compara el resultado con los de otros experimentos previos, realizados con menor precisión, se observa una cierta tensión, aunque no son totalmente incompatibles.

Por ello es necesario verificar nuestros resultados de CDF con los de otros experimentos, como ATLAS o CMS del acelerador LHC, lo cual se está realizando y se publicará en el futuro, seguramente en el próximo año. El modelo estándar, con la nueva medida de CDF, está en tensión y a la espera de poder confirmar, o no, si las medidas de CDF son válidas y, en consecuencia, se abre el campo a discusiones sobre modelos teóricos más avanzados, que ajusten mejor los resultados obtenidos.

 

Autor

Alberto Ruiz Jimeno es Catedrático de Física Atómica, Molecular y Nuclear de la Universidad de Cantabria y miembro fundador del Grupo de Altas Energías del Instituto de Física de Cantabria (IFCA-CSIC-Univ. Cantabria). Además es socio de la Asociación Española para el Avance de la Ciencia (AEAC) y miembro de su Junta Directiva.

Créditos

Esto artículo hace referencia al artículo publicado en Science por la colaboración CDF de Fermilab, entre cuyos autores se encuentra Alberto Ruiz Jimeno, habiendo sido seleccionado como portada de la Revista.

 

Referencia: High-precision measurement of the W boson mass with the CDF II detector. CDF Fermilab. Science • 7 Apr 2022 • Vol 376, Issue 6589 • pp. 170-176 • DOI: 10.1126/science.abk1781.

Colabora
Colaborar con la AEAC es apoyar a la Ciencia, en su sentido más amplio.
Hazte socio
Ser socio de la AEAC es apoyar a la Ciencia.
Newsletter
Suscríbete a nuestro boletín de noticias para tener toda la información de la AEAC en tu email.

MAPA WEB | QUIÉNES SOMOS | ACTIVIDADES | CIENCEANDO | INVOLÚCRATE | OPINIÓN | CONTACTO | VIDEOTECA | PODCAST | LIVE