**********************************************************************
E D U C Y T
**********************************************************************
Noticias de
Educacion, Universidad, Ciencia y Tecnica
______________________________________________________________________
20 de septiembre de 2002 Año 6 Nro. 203
Segunda sección
_______________________________________________________________________
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% INDICE %%%%%%%%%%%%%%%%%%%%%%%%%%%%%
--------------------------- CIENCIA Y TECNICA -----------------------
¿QUÉ ES LA TEORÍA DE CUERDAS?
ESTRÓGENOS NO TAN BUENOS
BREVES DE CIENCIA Y TECNOLOGIA
EFEMÉRIDES: Edwin Hubble, uno de los padres de la cosmología moderna.
------------------------ TODOS DICEN LO SUYO ------------------------
----------------- CURSOS, BECAS, SEMINARIOS, CONCURSOS ---------------
CURSOS, BECAS, SEMINARIOS
Generales, Educación, Ciencias Sociales, Ciencias Exactas
e Ingeniería, Ciencias Naturales, Ciencias de la Salud.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
--------------------------- CIENCIA Y TECNICA -----------------------------
[] ¿QUÉ ES LA TEORÍA DE CUERDAS?
En el marco del ciclo "Ciencia para Todos", organizado por el
Instituto de Astronomía y Física del Espacio (IAFE), el 31 de
agosto del año pasado, la doctora Carmen Núñez brindó una charla de
divulgación científica mediante la cual se abordó el tema de la
Teoría de Cuerdas. La que sigue es una transcripción de dicha
charla.
En los últimos quince años, gran parte de los físicos teóricos de
altas energías fueron atraídos por las propiedades de la teoría de cuerdas.
El motivo de esta atracción es que la teoría de cuerdas o supercuerdas es
el primer candidato posible para una teoría final. Por eso ha sido llamada
Teoría del Todo o Teoría Final.
¿Qué significa una teoría final? La física busca verdades
universales sobre la naturaleza. Cuando estas verdades se encuentran, se
trata de explicarlas en base a principios más profundos, a verdades más
fundamentales, a partir de las cuales poder deducir las anteriores. El
punto inicial de todas las explicaciones es lo que se entiende por teoría
final. Esta reducción a principios cada vez más elementales, más básicos,
se ha dado en la física históricamente a través de unificaciones de teorías
previas. Esta tendencia a la descripción unificada de fenómenos
considerados previamente independientes, la búsqueda de principios
aglutinadores, permitió persistentemente explicar más hechos que los
contenidos originalmente en las partes que se intentaba amalgamar.
Este sueño de encontrar un principio básico a partir del cual poder
explicar el universo no comienza en el siglo XX. La Humanidad ha buscado,
desde épocas muy remotas, explicar las diversas manifestaciones de la
naturaleza como diferentes aspectos de un mismo fenómeno (o conjunto de
fenómenos). En Occidente el origen de estas ideas se remonta a los
presocráticos (los elementos fundamentales eran para ellos agua, aire). La
primera teoría final fue el atomismo griego, construido por Leucipo y
Demócrito en el siglo V a.C. Pero hay una diferencia muy importante entre
estas teorías antiguas y las modernas teorías científicas: la actual
exigencia de verificación experimental. Una explicación científica moderna
debe contener una comprensión cuantitativa de los fenómenos. En la
actualidad la búsqueda de la teoría final se realiza en el contexto de la
física de altas energías.
Todavía no tenemos esta teoría, y ni siquiera estamos cerca de
descubrirla. Sólo tenemos algunos indicios que vamos a tratar de
describir.
¿QUÉ SON LAS CUERDAS?
Las cuerdas son objetos unidimensionales. En esto, constituyen una
importante ruptura con las teorías previas que, invariablemente, modelaban
la materia en términos de partículas puntuales. El tamaño de las cuerdas
fundamentales es extremadamente pequeño (de la escala de Planck: 10-33
cm), pero lo importante es que no son puntuales, tienen una dimensión.
Pueden ser abiertas, con extremos o cerradas. Por supuesto las
cuerdas ordinarias (las que uno usa para sujetar cosas) están compuestas de
partículas como protones, neutrones y electrones, pero estas nuevas cuerdas
fundamentales son diferentes; ellas son las cosas de las que están hechas
los protones y neutrones.
A medida que viajan en el espacio y el tiempo las cuerdas vibran.
Cada cuerda se puede encontrar en cualquier estado posible de infinitos
estados de vibración, como los tonos de una cuerda de violín.
Las cuerdas se supone que son muy pequeñas, entonces cuando se las
mira de lejos, parecen partículas puntuales. Como una cuerda puede estar
en cualquiera de infinitos modos de vibración es como una partícula que
puede pertenecer a cualquiera de un número infinito de especies
correspondiente al modo en que la cuerda está vibrando. Los distintos
armónicos de una cuerda de violín son esenciales para la riqueza del sonido
y corresponden a diferentes sonidos. En el caso de las cuerdas
fundamentales que nos ocupan, los distintos armónicos corresponden a
diferentes partículas elementales: el electrón, el gravitón, el fotón y
todas las demás, de la misma manera que los distintos tonos de la cuerda de
violín.
Por esta propiedad, la de contener todas las partículas de la
naturaleza de manera consistente con la mecánica cuántica, incluyendo el
gravitón, la teoría de cuerdas fue denominada "teoría de todo".
Las teorías previas que modelaban la materia en base a partículas
puntuales se llaman teorías cuánticas de campos. El lenguaje de estas
teorías son unos dibujos, llamados diagramas de Feynman, que describen las
interacciones de partículas.
Los diagramas de Feynman pueden pensarse como la historia real de
partículas puntuales que se propagan en el espacio y el tiempo y que se
unen y se separan en los puntos de interacción. Uno de los problemas más
serios de la física de partículas es el de los infinitos que se originan en
estos puntos de interacción (las masas y las cargas de las partículas que
interactúan resultan infinitos).
Consideremos por ejemplo un electrón. El electrón es fuente
(origen) de campos eléctrico, magnético y gravitatorio. La energía de sus
campos eléctrico y gravitatorio es infinita. Las teorías de campos que
describen partículas puntuales están plagadas de cantidades de magnitud
infinita (divergencias). Estos infinitos son molestos pero pueden
"absorberse" en algunas teorías cuánticas mediante redefiniciones y
finalmente, los objetos físicos (carga, masa, energía), resultan bien
definidos. Sin embargo, esta "renormalización" (como se denomina el
proceso de sustracción de infinitos) no se puede realizar para el campo
gravitatorio del electrón, si éste se considera una partícula puntual. Las
teorías cuánticas de campos son inconsistentes (no renormalizables) en
presencia de la gravedad. En particular la teoría de campos cuántica de la
gravedad es no renormalizable (o no es renormalizable). Las teorías de
partículas puntuales también presentan otras enfermedades llamadas
"anomalías" (de las que no vamos a hablar).
La diferencia crucial con las teorías de cuerdas es que, mientras
en el caso de las partículas hay un punto bien definido, en el que ocurre
la división, cuando una cuerda se separa en dos no hay una noción bien
definida de cuándo y dónde esto sucede. Esta diferencia tiene muchas
consecuencias. En primer lugar, en la teoría de cuerdas el electrón ya no
es puntual, sino una pequeña cuerda vibrante. La dimensión extra de la
cuerda permite darle sentido al campo gravitatorio del electrón. Y lo
mismo sucede con todas las partículas elementales, que en la teoría de
cuerdas son pequeñas cuerdas vibrantes. Tampoco las cuerdas tienen
"anomalías", como aparecen en las teorías de campos de partículas.
El entusiasmo creció cuando se mostró que el límite de partículas
de una de esas teorías tenía un parecido notable con el Modelo Estándar de
las interacciones fundamentales y reproducía la Relatividad General. Estas
son las teorías aceptadas actualmente para describir las interacciones
fundamentales, en el sentido que han pasado todos los tests experimentales
a que han sido sometidas. Estas propiedades fueron establecidas en 1985,
año en que se produjo la llamada Primera Revolución de las Cuerdas.
Aunque se puede pensar en muchas posibles teorías de cuerdas
resulta que hasta el año 1995 sólo cinco tipos específicos pasaban el test
de consistencia matemática. En ese año comenzaron a descubrirse relaciones
entre estas cinco teorías (simetrías de dualidad) que permiten suponer
actualmente la existencia de una única teoría, la teoría M, de la cual las
cinco teorías de supercuerdas se obtienen bajo ciertas condiciones
particulares. Esto es otra mejora sustancial respecto de las teorías de
partículas anteriores, que son muchísimas. Es una mejora con respecto a
las predicciones que puede hacer la teoría, porque al estar muy acotada por
cuestiones de consistencia matemática, la verificación experimental de
estas predicciones se transforma en un test decisivo para la viabilidad de
la teoría. No es posible hacerle modificaciones sin violar los principios
básicos que sustentan la teoría. Tan importante fue el descubrimiento de
estas simetrías de dualidad que 1995 se considera el año de la Segunda
Revolución de las Cuerdas.
Pero no todo es tan bonito. Hay algunos importantes problemas.
Las 5 teorías son consistentes en un espacio de 9 dimensiones (más el
tiempo, es decir 10 dimensiones espacio-temporales) y la teoría M parece
vivir en un espacio de 10 dimensiones (11 dimensiones espacio-temporales).
Cualquier análisis de viabilidad u obtención de predicciones
experimentales requiere comprender cómo se relaciona la física en 3
dimensiones, las 3 dimensiones cotidianas, las que percibimos en nuestro
universo (más el tiempo), con la física en 9 o 10 dimensiones. Para poder
extraer conclusiones realistas es necesario suponer que 6 (o 7) de estas
dimensiones son invisibles y sólo se manifiestan 4 (3 espaciales y el
tiempo). La aparición de un número mayor de dimensiones que las que
podemos apreciar cotidianamente, no es nueva. Vamos a ver más adelante que
el primer intento de unificación realizado en el siglo XX, que pretendía
describir la gravedad y el electromagnetismo en un marco común, unificado,
requería un espacio de 4 dimensiones (además del tiempo, es decir 5
dimensiones espacio-temporales). La idea es que la dimensión extra es muy
pequeña y está enrollada: como si miráramos un caño de lejos: parece ser
una línea. Pero si nos acercamos se ve que en realidad tiene una
estructura en otra dimensión.
Pero el problema en la teoría de cuerdas es que las predicciones
experimentales dependen de cómo sean las 6 (o 7) dimensiones extra, de cómo
se realice esta "compactificación" (nombre técnico que describe este
proceso de enrollar las dimensiones). Y aquí está uno de los problemas más
importantes que todavía deben ser resueltos: existen muchas, demasiadas,
posibilidades de realizar esta transición de 10 (u 11) a 4 dimensiones. Y
muchas de ellas son consistentes con la fenomenología observada
experimentalmente. En su estado actual la teoría no permite elegir entre
distintas soluciones de otra manera que no sea el contraste con el
experimento, cual es la versión que ajusta mejor a la naturaleza; pero no
hay un criterio, un principio, para decidir si una es mejor que la otra en
4 dimensiones. Esto lleva a pensar que, en realidad, todavía no existe una
buena formulación de la teoría. En particular, los cálculos pueden hacerse
sólo de manera aproximada, de una forma llamada "perturbativa". Es posible
que una formulación que produzca resultados exactos elimine muchas de estas
soluciones aproximadas. La esperanza es que elimine todas excepto una: la
que corresponde a la naturaleza. A partir de 1995 se han descubierto
varias propiedades de esta supuesta teoría, llamada teoría M. Se
encontraron ciertas relaciones entre las 5 teorías consistentes de
supercuerdas en 9 dimensiones y los miles de teorías de partículas que se
derivan de ellas en 3 dimensiones.
Además de cuerdas, la teoría M contiene otros objetos extendidos de
mayor dimensionalidad (membranas de 2 dimensiones, objetos de 3 o más
dimensiones espaciales), igualmente fundamentales. Todos ellos viviendo en
11 dimensiones.
La idea que existe actualmente entre los físicos de cuerdas es que
no se conocen todavía los principios fundamentales que sustentan las
ecuaciones.
LA FÍSICA Y SU HISTORIA
Para aclarar algunos conceptos que hemos usado sin explicar parece
conveniente hacer una breve historia de la física, con especial atención en
la situación existente en el momento de la formulación de la teoría de
cuerdas.
La mecánica de Newton, en el siglo XVII, marca el comienzo de la
ciencia moderna. Newton comenzó el sueño moderno de una teoría final. La
mecánica newtoniana postula la unicidad de las leyes que rigen el
movimiento de los cuerpos celestes y el de los terrestres, la unicidad de
las leyes del movimiento y de la gravitación universal. No es casual que
la gravedad marque el comienzo. Es la más familiar de las fuerzas, la
única fuerza universal, es decir que actúa entre todas las partículas sin
excepción (todos sabemos que si soltamos cualquier objeto que estamos
sosteniendo, este cae por la fuerza de la gravedad). Su fuente (el origen
de esta fuerza) es la masa de la partícula (de la Tierra en el caso de los
objetos que caen) y su intensidad es proporcional a ella. La gravedad es
atractiva y de "largo alcance" pues actúa a grandes distancias (incluso
intergalácticas, cosmológicas).
Newton concebía la gravedad como una "acción a distancia", es decir
una partícula actúa sobre otra directa e instantáneamente a través del
espacio, con una fuerza proporcional al producto de las masas de las
partículas y que disminuye como el cuadrado de la distancia que las separa.
La concepción moderna postula en cambio que la gravedad es
geometría. En efecto, la teoría de la relatividad de Einstein concibe al
campo gravitatorio como un campo de distorsión geométrica o una curvatura
del espacio-tiempo. En la Teoría Especial de la Relatividad (1905)
Einstein modificó las nociones de espacio y de tiempo absolutos de Newton,
introduciendo el concepto de espacio-tiempo, en que el tiempo aparece como
una dimensión más, en un pie de igualdad con las dimensiones espaciales. Y
en su Teoría de Relatividad General (1915) trató de encajar la teoría de la
gravedad en esta nueva visión. Tenía para ello algunos indicios, por
ejemplo el notable descubrimiento de Galileo que el movimiento de cuerpos
pequeños debido a la gravedad es independiente de la naturaleza de los
cuerpos. Esto le sugirió que la gravedad podría ser una propiedad del
propio espacio-tiempo. Muy brevemente, en lugar de la imagen newtoniana de
la gravitación como una atracción entre todos los cuerpos masivos, la RG
describe la gravitación como un efecto de la curvatura del espacio-tiempo
producida por la materia y la energía. El concepto de campo, muy
importante en la descripción de todas las fuerzas, se basa en la noción de
que toda partícula es la fuente de un campo tal que cualquier otra
partícula que se encuentre dentro de su rango de acción experimenta una
fuerza proporcional a la intensidad del campo en ese punto. Todas las
partículas originan un campo gravitatorio. Así por ejemplo, el Sol curva
el espacio-tiempo a su alrededor y la órbita terrestre es consecuencia de
este efecto geométrico.
La RG resolvió un antiguo conflicto de la teoría de Newton: la
precesión del perihelio de Mercurio. Y predijo nuevos fenómenos que fueron
observados con posterioridad a la formulación de la teoría: la curvatura
en la trayectoria de los rayos de luz producida por el Sol, predicha por la
teoría, fue medida por primera vez en 1919. Desde entonces se han
acumulado más pruebas y hoy podemos afirmar que la RG es la teoría que
describe satisfactoriamente el campo gravitatorio.
Es interesante analizar en más detalle estas dos teorías. La
física de Newton explica virtualmente todos los movimientos observados en
el sistema solar, pero al costo de introducir algunas suposiciones
arbitrarias. Por ejemplo volvamos a la ley del cuadrado inverso. En la
teoría de Newton no hay nada que obligue particularmente a esta ley.
Newton desarrolló esta idea para explicar hechos conocidos sobre el sistema
solar, como por ejemplo la ley de Kepler entre el tamaño de las órbitas
planetarias y el tiempo que les lleva a los planetas dar una vuelta
alrededor del Sol. Si se reemplazara el dos por un tres o un 5.8 nada
cambiaría en el marco conceptual de la teoría (aunque las observaciones no
podrían explicarse). En la teoría de Einstein en cambio no hay tanta
arbitrariedad. Para cuerpos en movimiento lento en campos gravitacionales
débiles, para los cuales se puede hablar de una fuerza gravitacional
newtoniana, la RG requiere que esta fuerza vaya como el cuadrado inverso
(RG=>Newton). No es posible en la RG ajustar la teoría para obtener otra
cosa que no sea la ley del cuadrado inverso sin violar alguno de los
principios básicos de la teoría. También enfatizó el propio Einstein que
el hecho que la fuerza de gravedad sobre objetos pequeños sea proporcional
a su masa y no dependa de ninguna otra propiedad del objeto es muy
arbitrario en la teoría de Newton. La fuerza gravitacional podría haber
dependido de la composición química, el tamaño o la forma del objeto sin
afectar la base conceptual de la teoría newtoniana. En la teoría de
Einstein la fuerza que la gravedad ejerce sobre cualquier objeto debe ser
proporcional a su masa e independiente de cualquier otra propiedad. Si no
fuera así no se podría interpretar la gravitación como un efecto geométrico
de la curvatura del espacio-tiempo. La teoría de Einstein es más rígida.
Las siguientes fuerzas estudiadas cronológicamente fueron la
electricidad y el magnetismo. Si bien estos fenómenos eran conocidos desde
la antigüedad, recién en el siglo XIX fueron concebidos en el marco de una
teoría común. La carga eléctrica es la fuente (el origen) de estas
fuerzas, y por eso no es esta una interacción universal como la
gravitatoria, sino que sólo actúa entre partículas cargadas. Su intensidad
es enorme comparada con la gravitatoria (la fuerza gravitatoria entre un
electrón y un protón, por ejemplo, es unas 1040 veces más débil que la
fuerza eléctrica entre ellos), pero como las cargas son positivas y
negativas hay una tendencia a la cancelación, y por eso la gravedad domina
el universo a grandes escalas.
El electromagnetismo fue formulado por Maxwell (alrededor de 1850)
al descubrir que la electricidad y el magnetismo son en realidad distintos
aspectos del campo electromagnético. Un cuerpo cargado eléctricamente crea
un campo electromagnético que ejerce fuerzas eléctrica y magnética sobre
otros cuerpos cargados. Maxwell calculó que la velocidad de propagación de
un campo electromagnético es la de la luz y propuso entonces que la luz es
un fenómeno electromagnético. Como las cargas pueden oscilar con cualquier
frecuencia Maxwell concluyó que la luz visible forma sólo una pequeña parte
de todo el espectro de radiación electromagnética (que hoy sabemos que
incluye ondas de radio, luz UV, infrarroja, rayos X, etc.).
Con esta teoría se alcanzó una sensación de completitud. A fines
del siglo XIX se pensaba que sólo había que calcular más precisamente,
aproximar con más cifras decimales, pero que no había más principios ni
leyes por descubrir. La gravedad y el electromagnetismo son efectivamente
las más familiares de las interacciones fundamentales y con estas leyes
podían explicarse todos los fenómenos cotidianos.
Como ya dijimos, la primera teoría unificadora en el siglo XX
involucraba la gravitación de Einstein y el electromagnetismo de Maxwell.
Se hizo en el marco de una idea que actualmente se retoma en la teoría de
cuerdas: aumentar el número de dimensiones del espacio-tiempo.
El primer intento de unificación en la física de este siglo se
remonta a 1921 cuando Kaluza, poco después que Einstein publicara su teoría
de la relatividad, propuso unificar las interacciones gravitatorias y
electromagnéticas agregando una dimensión extra al espacio-tiempo. Kaluza
escribió las ecuaciones del campo gravitatorio en 5 dimensiones, agregando
simplemente una dimensión espacial imaginaria. El resultado fue muy
interesante: vistas en 4 dimensiones (compactificando una dimensión, como
explicamos antes) las ecuaciones de Einstein reproducen las ecuaciones
gravitatorias y además otro conjunto de ecuaciones que resultan ser
precisamente las ecuaciones de Maxwell para el campo electromagnético.
Así, formulando la RG en 5 dimensiones se pueden obtener la gravedad y el
electromagnetismo en una única teoría. Sin embargo, nosotros sólo
percibimos 4 dimensiones. La interpretación de esta dimensión extra,
propuesta por Klein en 1926, es que la dimensión extra es muy pequeña y
está enrollada, pero no dentro del espacio del 4D, sino de manera tal que
lo extiende. Klein calculó la circunferencia de esta dimensión enrollada
alrededor de la quinta dimensión y resultó ser de 10-33 cm (la long de
Planck), es decir mucho más pequeña que cualquier estructura que se haya
observado, incluso en la física de las partículas subnucleares.
Con el descubrimiento de las interacciones fuertes y débiles
alrededor de 1930 la teoría de Kaluza-Klein perdió mucho de su atractivo:
una teoría unificada debería contener cuatro fuerzas, no sólo dos. Las 5
dimensiones eran insuficientes. En realidad para incluir estas dos fuerzas
adicionales en una idea semejante, ¡hacen falta justamente 10 u 11
dimensiones! La misma cantidad que requiere la teoría de cuerdas.
Dijimos que a finales del siglo XIX había entre los físicos una
sensación de que ya podían explicarse todos los fenómenos conocidos en base
a las leyes de Newton y el electromagnetismo de Maxwell. Pero en 1895 se
descubrieron los rayos X, en 1896 la radiactividad, Thompson descubrió el
electrón en 1897 y esto indicó que había nuevas cosas por descubrir
estudiando radiación de distintos tipos. En 1905 Einstein presentó la
teoría especial de la relatividad, pero además sugirió un nuevo método para
demostrar la existencia de los átomos e interpretó resultados anteriores
sobre la radiación calórica en términos de una nueva partícula que más
tarde se llamó fotón. Se sucedieron entonces una serie de importantes
avances: en 1911 Rutherford presentó su modelo atómico, semejante al
sistema solar (pequeños núcleos rodeados de nubes de electrones); en 1913
Bohr explicó el espectro del átomo más sencillo, el hidrógeno. De nuevo se
empezó a pensar en la posibilidad de una teoría unificadora de toda la
física. Y el marco adecuado lo proveyó uno de los hitos más importantes de
la física del siglo XX: el descubrimiento de la mecánica cuántica en 1900.
La mecánica cuántica introdujo la modificación más radical en el
pensamiento físico: las partículas y fuerzas newtonianas fueron
reemplazadas por funciones de onda y probabilidades y esto hizo posible
calcular las propiedades, no sólo de los átomos individuales y sus
interacciones con la radiación, sino también de átomos combinados en
moléculas. Se hizo evidente que las reacciones químicas son lo que son por
las interacciones eléctricas de los electrones y núcleos atómicos. Tan
importante es la mecánica cuántica en la física moderna que toda la física
se divide, a partir de ella, en clásica (o no cuántica) y cuántica.
Una de las primeras aplicaciones de la MC fue calcular que la
energía de los campos magnéticos y eléctricos en un rayo de luz viene en
paquetes que se comportan como partículas. En consecuencia justifica los
fotones de Einstein.
Otro ingrediente de esta teoría es el resultado de Dirac de 1928
según el cual la descripción de los electrones en términos de funciones de
onda es consistente con la teoría especial de la relatividad. Una
consecuencia de esta observación de Dirac es que para cada tipo de
partícula cargada (como el electrón) debe haber otra especie con igual masa
pero carga opuesta: la antimateria. En 1932 se midió el positrón (la
antipartícula del electrón).
La teoría cuántica de los electrones y los fotones es la QED. La
QED se usó en los años '20 y principios de los '30 para calcular varios
fenómenos (colisiones de fotones con electrones, de un electrón con otro,
la aniquilación o producción de un electrón y un positrón) con resultados
sorprendentemente de acuerdo con el experimento.
Pero pronto apareció un nuevo problema: los primeros cálculos
cuánticos de energías atómicas habían dado resultados coincidentes con los
experimentos. Pero cuando la mecánica cuántica se aplicó no sólo los
electrones en los átomos sino a los campos eléctricos y magnéticos que
producen, resultó que el electrón ¡tenía energía infinita! Aparecieron
otros infinitos en los cálculos y por cuatro décadas este resultado absurdo
pareció el obstáculo más grande para el progreso de la física.
A mediados de los '30 se consideraba que la QED era sólo una
aproximación a la teoría completa, válida sólo para procesos que involucran
fotones, electrones y positrones de energía suficientemente baja. Había
problemas de consistencia interna debido a la aparición de los infinitos.
La solución al problema de los infinitos apareció a fines de los
'40 y resultó consecuencia de otra unificación. En 1940 fue posible
unificar la Mecánica Cuántica con la Relatividad Especial. Los principios
de estas dos teorías son casi incompatibles entre sí y pueden coexistir
sólo en un tipo muy limitado de teorías. En la mecánica cuántica no
relativista podíamos imaginar cualquier tipo de fuerzas entre los
electrones y los núcleos atómicos, pero esto no es posible en una teoría
relativista. Las fuerzas o interacciones entre partículas sólo pueden
aparecer por intercambio de otras partículas. Todas estas partículas son
paquetes de energía o "cuantos" de varios tipos de campos.
Hay un campo para cada especie de partícula elemental. Hay un
campo eléctrico cuyos cuantos son los electrones, hay un campo
electromagnético cuyos cuantos son los fotones. No hay campo del núcleo
atómico o de los protones y neutrones, pero sí hay de los quarks, las
partículas que componen el núcleo. Las ecuaciones de una teoría de campos,
tratan con campos no con partículas. Las partículas aparecen como
manifestaciones de estos campos.
La solución que encontraron los físicos al problema de los
infinitos gobernó desde entonces el curso de la física. Los electrones
libres y en los átomos están siempre emitiendo y reabsorbiendo fotones que
afectan su masa y su carga y las hacen infinitas. Para poder explicar la
carga y masa observadas (que son finitas), la masa y carga desnudas que
aparecen en las ecuaciones deben ser infinitas! La energía total del átomo
es entonces la suma de dos términos, ambos infinitos: la energía desnuda
que es infinita porque depende de la masa y carga desnudas, y el
corrimiento calculado por las emisiones y reabsorciones de fotones que es
infinito porque recibe contribuciones de fotones de energía ilimitada.
Esto permitió preguntarse si es posible que estos dos infinitos se cancelen
dejando un resultado finito, y la respuesta es afirmativa.
Los cálculos de estos procesos en 1948 eran terriblemente
complicados porque daban el resultado como una suma de términos que
individualmente violaban la relatividad especial, siendo sólo la respuesta
final consistente con la teoría de la relatividad. Mientras tanto, Richard
Feynman y otros físicos estaban desarrollando independientemente métodos
mucho más simples de cálculo, consistentes en cada paso con la relatividad.
Feynman desarrolló los diagramas que llevan su nombre y que ya vimos. Se
usaron estas técnicas para hacer otros cálculos, algunos de ellos daban una
coincidencia espectacular con el experimento. Por ejemplo, el electrón
tiene un pequeño campo magnético, originalmente calculado en 1928 por Dirac
sobre la base de su teoría cuántica relativista del electrón. Schwinger
había realizado cálculos aproximados del corrimiento en la intensidad del
campo magnético del electrón causado por procesos en que fotones son
emitidos y reabsorbidos. Los cálculos fueron continuamente refinados desde
entonces, y el resultado moderno es que el campo magnético del electrón
aumenta por emisiones y reabsorciones de fotones y efectos similares por un
factor 1.00115965214 (con un error o incerteza de 3 en el último dígito)
sobre la vieja predicción de Dirac que había ignorado estos efectos. Casi
simultáneamente con los cálculos de Schwinger, experimentos realizados en
la Universidad de Columbia indicaban que el campo magnético del electrón es
en realidad un poco mayor que el viejo resultado de Dirac y justamente en
la cantidad calculada por Schwinger. Un experimento reciente da un factor
1.001159652188, con una incerteza de 4 en el último dígito. La
coincidencia numérica entre teoría y experimento es quizás la más
impresionante de toda la ciencia.
Con semejante éxito no es sorprendente que la QED se haya
convertido en la teoría correcta de los fotones y electrones. Sin embargo,
a pesar del éxito experimental de la teoría, y aunque los infinitos se
cancelan cuando se los trata adecuadamente, el hecho de que aparezcan
produce cierta desconfianza. Dirac en particular se refería a la
renormalización como si se estuviera barriendo los infinitos debajo de la
alfombra. El requerimiento de una teoría completamente finita es parecido
a otros varios juicios estéticos que los físicos teóricos siempre tienen
que hacer. Entonces, encontrar teorías que no tengan infinitos parece ser
un camino apropiado para avanzar en la búsqueda de la teoría final.
Actualmente la teoría de cuerdas parece ser el único modo de evitar los
infinitos cuando se quiere unificar la mecánica cuántica con la relatividad
general.
El siguiente gran progreso realizado por la teoría cuántica de
campos fue la unificación del electromagnetismo con la teoría nuclear
débil.
Las otras dos interacciones fundamentales (además de la
gravitatoria y la electromagnética) son la fuerte y la débil. Estas
fuerzas no son observables directamente en la vida cotidiana, ya que actúan
a escala subatómica. La primera es responsable de mantener unidos protones
y neutrones (explica por qué no se separan los protones del núcleo atómico
debido a la fuerza de repulsión eléctrica y no se desintegra el núcleo
atómico, pero actúa también entre otras partículas pesadas llamadas
hadrones. Es de "corto alcance" (se extingue más allá de 10-13 cm) y su
fuente es el color, equivalente de la carga eléctrica, que en este caso es
de 3 tipos: rojo, verde y azul.
La fuerza débil, mucho más débil que la electromagnética pero mucho
más fuerte que la gravitatoria, se manifiesta especialmente en la
transmutación de partículas. Fue postulada inicialmente para explicar el
decaimiento beta, un tipo de radiactividad de ciertos núcleos atómicos
inestables.
En un decaimiento beta típico un neutrón se convierte en un protón,
un electrón y un antineutrino, a través de un cambio de sabor (equivalente
a la masa, carga o color en las otras fuerzas) de un quark. La fuerza
nuclear débil no es tan importante en nuestra vida cotidiana como las
fuerzas magnéticas, eléctricas o gravitatorias, pero juega un rol decisivo
en las cadenas de reacciones nucleares que generan energía y producen los
elementos químicos en los núcleos de las estrellas. Esto es algo que
ninguna otra fuerza puede permitir que suceda. La fuerza nuclear fuerte
que mantiene los protones y neutrones juntos en el núcleo y la fuerza
electromagnética que trata de separar los protones, no pueden cambiar las
identidades de estas partículas, y la fuerza gravitatoria ciertamente no
puede hacer nada de este tipo, entonces la observación de neutrones
cambiando a protones y viceversa proveyeron la evidencia de un nuevo tipo
de fuerza en la naturaleza. Como su nombre lo indica, la fuerza débil es
más débil que la electromagnética o la nuclear fuerte.
En 1957 la teoría de las interacciones débiles estaba establecida
en el contexto de la teoría cuántica de campos, pero había un sentimiento
de insatisfacción. Los problemas no eran experimentales sino teóricos.
Aunque la teoría funcionaba bien para el decaimiento beta, al ser aplicada
a otros procesos más exóticos aparecían nuevamente infinitos (p. ej. la
probabilidad de colisión de un neutrino con un antineutrino). Los
experimentos no podían hacerse, pero obviamente los resultados infinitos no
podían coincidir con ningún resultado experimental. Estos infinitos ya
habían aparecido en QED, pero en 1940 se había mostrado que se cancelan en
esta teoría, es decir QED es renormalizable. Pero la teoría de Fermi que
describía las interacciones débiles no lo era.
Otro problema con esta teoría era que tenía muchos elementos
arbitrarios. La forma básica de la interacción débil se había inferido
básicamente del experimento pero podría haber sido muy diferente, aun sin
violar ningún principio físico conocido.
La solución la encontraron Weinberg y Salam y por esto recibieron
el premio nobel de física en 1979. Así como la fuerza electromagnética
entre partículas cargadas es causada por el intercambio de fotones, una
fuerza débil no podría actuar instantáneamente en un punto del espacio.
Weinberg y Salam propusieron la existencia de nuevas partículas, W y Z,
nuevas partículas mensajeros que no podían ser no masivas como los fotones,
pero se introducían en la teoría del mismo modo. Esto hizo que la teoría
se hiciera renormalizable como la QED. Al hacerlo se vio que no era sólo
una teoría de las interacciones débiles sino una teoría unificada con las
fuerzas electromagnéticas, que se llamó teoría electrodébil.
La verificación experimental llegó mucho después. En 1983 se
descubrieron las partículas W y en 1984 la partícula Z, cuya existencia y
propiedades habían sido predichas correctamente por la teoría electrodébil
1968.
Al unificar el electromagnetismo con las interacciones débiles esta
teoría no sólo permitió eliminar inconsistencias de la teoría débil previa,
sino que predijo la existencia de nuevas partículas (los gluones W( y Z),
observadas experimentalmente en 1983.
En los '60 Gell-Mann y Zweig trataban de reducir el enorme
zoológico de partículas conocidas. Propusieron que casi todas estas
partículas estaban compuestas de unas pocas partículas simples, más
elementales, llamadas quarks. La idea iba en la misma dirección que los
físicos estaban acostumbrados a pensar; era un paso más en la tradición
que comenzaron Leucipo y Demócrito, de tratar de explicar estructuras
complicadas en términos de constituyentes más simples y más pequeños. Los
quarks se aplicaron en los '60 a una gran variedad de problemas físicos
relacionados con las propiedades de los neutrones, protones y mesones y
todas las otras partículas supuestamente hechas de quarks, y generalmente
la teoría funcionaba bastante bien. Pero incluso los mejores intentos
experimentales de los '60 y '70 de extraer los quarks de las partículas que
supuestamente los contenían, fracasaron. Esto parecía imposible. Desde
que Thompson sacó los electrones de los átomos siempre había sido posible
romper cualquier sistema compuesto como una molécula en átomos o un núcleo
en las partículas individuales que lo componen. Pero parece imposible
aislar los quarks.
La teoría de los quarks empezó a tener sentido con la elaboración
de la cromodinámica cuántica en los '70, nuestra moderna teoría de las
interacciones fuertes. Esta teoría prohíbe cualquier proceso en que un
quark libre pueda ser aislado (confinamiento). La teoría de quarks y
gluones se llamó cromodinámica cuántica y fue aceptada rápidamente como la
teoría de las interacciones nucleares fuertes.
La idea de que los quarks y gluones no pueden observarse
aisladamente es parte de los principios aceptados por la física de
partículas elementales, pero aún así describimos los neutrones, protones y
mesones como compuestos por quarks.
¿De qué manera comprender estas fuerzas nos permite comprender la
naturaleza? Consideremos para ilustrar estas ideas un pedazo de tiza. La
tiza es una sustancia familiar, sobre todo para los docentes.
La tiza es blanca. ¿Por qué? Todos sabemos que los colores del
arco iris se asocian con luz de determinada longitud de onda: más largas
al rojo, más cortas al violeta y azul. Cuando la luz choca contra un
objeto opaco como la tiza sólo una parte se refleja; el resto es
absorbido: una sustancia de determinado color lo es porque absorbe ondas
de ciertas longitudes de onda: vemos el color que refleja. La tiza
absorbe en el infrarrojo y el ultravioleta, que son rangos del espectro
invisibles y refleja todos los otros.
¿Pero por qué? ¿Por qué la tiza absorbe las longitudes de onda
invisibles y refleja todas las visibles? La respuesta tiene que ver con
las energías de los átomos y la luz. Los fotones de la luz no tienen masa
o carga pero tienen cierta energía, inversamente proporcional a la longitud
de onda de la luz. Los estados de un átomo son discretos, definidos: no
se pueden cambiar excepto en ciertas cantidades definidas. Normalmente un
átomo está en su estado de mínima energía; cuando absorbe luz salta a un
estado de mayor energía y de menor energía cuando emite. Entonces sólo
absorbe o emite fotones de esas energías particulares. La tiza es blanca
porque las moléculas que la componen no tienen un estado al que puedan
saltar absorbiendo fotones de cualquier color de luz visible.
¿Por qué? ¿Por qué los átomos y moléculas vienen en estados
discretos con energía definida? ¿Por qué la luz viene en fotones de
energía definida? Estas preguntas se respondieron en 1920 con la Mecánica
Cuántica. Las partículas de un átomo se describen en Mecánica Cuántica con
funciones de onda. Es como una onda de luz o sonido pero su magnitud da la
probabilidad de encontrar a las partículas en un determinado lugar. Las
moléculas de carbonato de calcio que forman la tiza no tienen electrones
que puedan cambiar su energía absorbiendo luz visible. Los fotones también
sólo pueden existir en determinadas energías.
¿Y por qué? ¿Por qué las ecuaciones de la MC que gobiernan a las
partículas en los átomos son así? ¿Por qué la materia consiste de átomos,
electrones y núcleos? ¿Por qué hay algo como la luz? Las respuestas nos
remontan al Modelo Estandar y para eso fue necesaria la reconciliación de
la MC con la Rel. Especial en 1940. Los principios de estas dos teorías
son casi incompatibles entre sí y pueden coexistir sólo en un tipo limitado
de teorías. En la mecánica cuántica no relativista podíamos imaginar casi
cualquier tipo de fuerza entre electrones y núcleos pero esto no es así en
una teoría relativista. Las fuerzas entre partículas sólo pueden aparecer
por intercambio de otras partículas. Todas estas partículas son paquetes
de energía o "cuantos" de varios tipos de campos. Un campo (eléctrico o
magnético) es una deformación del espacio. Hay un tipo de campo para cada
especie de partícula elemental.
¿Por qué? ¿Por qué el mundo consiste sólo de estos campos: los
quarks, electrones, fotones,...? ¿Por qué tienen las propiedades que les
atribuye el modelo estándar? Y ¿por qué la naturaleza obedece los
principios de la relatividad y la mecánica cuántica?
Estas preguntas todavía no tienen respuesta. Ahora que entendemos
cómo funciona empezamos a preguntarnos por qué. ¿Por qué hay un neutrón y
un protón, uno neutro y otro cargado con casi la misma masa y mucho más
masivo que el electrón? Para eso debemos ver los detalles del modelo
estándar. Los quarks más livianos se llaman u (up) y d (down) y tienen
cargas +2/3 y -1/3 (en unidades en que la carga del elecrón es -1). Los
protones consisten de dos u y un d y entonces tienen carga 2/3+2/3-1/3=1.
Los neutrones consisten de un u y dos d entonces su carga es 2/3-1/3-1/3=0.
Las masas de los neutrones y protones son casi iguales porque se originan
en fuerzas fuertes que mantienen a los quarks unidos y estas fuerzas son
iguales para un u y un d. El electrón es más liviano porque no siente
estas fuerzas fuertes. Todos los quarks y electrones son paquetes de
energía de varios campos y sus propiedades se siguen de las propiedades de
estos campos.
De nuevo llegamos al Modelo Standard. Cualquier cadena de
preguntas sobre la tiza nos lleva al Modelo Standard. Vayamos ahora en
otra dirección: ¿Por qué hay suficiente calcio, carbono y oxígeno aquí en
la tierra para formar la tiza? Estos elementos existen en todo el
universo, fueron creados en las estrellas. Usando el modelo del big bang y
el Modelo Standard podemos calcular que la materia se formó en los primeros
minutos del universo y que se formó en la proporción de 3/4 partes de H y
1/4 de He y muy pocos otros elementos livianos. Este es el material crudo
del que se formaron los elementos más pesados en las estrellas. Cálculos
de reacciones nucleares en estrellas muestran que los elementos más
abundantes son aquellos cuyos núcleos están más ligados y estos elementos
incluyen carbono, oxígeno y calcio. Las estrellas mandan este material al
medio interestelar de varios modos: vientos estelares y explosiones de
supernovas. Y en este medio, rico en constituyentes de tiza, se forman las
estrellas de segunda generación como el Sol, y sus planetas. Este
escenario depende de que haya habido un big bang hace 10 mil millones de
años.
Siempre que hemos seguido las cadenas de preguntas sobre fuerzas y
materia suficientemente lejos, las respuestas se han encontrado en el
modelo standard de las partículas elementales y la relatividad general.
Los físicos experimentales y astrónomos han reportado cada vez mejor
coincidencia entre sus resultados y observaciones y las predicciones del
modelo estándar y la RG. Entonces, ¿por qué hay esta sensación de
pesimismo?
En primer lugar, el modelo standard describe las fuerzas
electromagnética y nucleares fuerte y débil, pero no incluye la gravedad.
Hay obstáculos matemáticos muy fuertes para describir la gravitación en el
mismo lenguaje que las otras fuerzas, en el lenguaje de la teoría cuántica
de campos. En segundo lugar, aunque las interacciones nucleares fuertes
están incluidas en el MS, aparecen como algo bastante diferente de las
fuerzas electromagnéticas y nucleares débiles, no como parte de una teoría
unificada. Finalmente, el MS contiene muchas características que no son
dictadas por principios fundamentales, sino que deben ser tomadas del
experimento. Estas características aparentemente arbitrarias incluyen un
menú de partículas, varias constantes como cocientes de masas, e incluso
los propios principios. Podríamos imaginarnos que cualquiera o todas de
estas características podrían ser distintas. El MS y la RG no son
claramente la respuesta final.
¿Por qué la unificación se da a altas energías? Cuanto más
profunda es la estructura a analizar, mayor es la energía necesaria. La
idea que dominó las unificaciones que desembocaron en el MS es que las
fuerzas intrínsecas de las 3 interacciones (débil, fuerte y
electromagnética) son iguales a alguna energía muy alta y se diferencian a
energías menores. Las diferentes identidades que manifiestan estas fuerzas
a bajas energías se funden en una única interacción a energías más altas.
Pero esta energía de unificación puede ser muy diferente de las que se
alcanzan en los experimentos presentes. Hay 3 fuerzas intrínsecas
independientes en el MS, entonces no es una condición trivial que haya
alguna energía a la cual estas fuerzas sean iguales. La energía predicha
es muy alta (1016 GeV)(los aceleradores sólo llegan hasta ~cientos GeV)
(escala de unificación electrodébil ~ 80 GeV). (1MeV= 10^6 eV; 1 GeV =
10^9 eV; 1 TeV = 10^12 eV).
Este parece un número muy grande, pero en la física teórica hay
otra energía muy grande que aparece naturalmente en cualquier teoría que
intente unificar la gravedad con las otras fuerzas. En condiciones
ordinarias la fuerza de gravedad es mucho más débil que las otras 3. Nunca
se ha observado ningún efecto de las fuerzas gravitatorias entre las
partículas dentro de un único átomo o molécula, y no hay demasiada
esperanza de que alguien podrá. Pero según la RG, la gravedad se produce y
actúa tanto sobre energía tanto como sobre masa. Este es el motivo por el
que los fotones que tienen energía pero no masa se deflectan por el campo
gravitatorio del Sol. A energías suficientemente altas la fuerza de
gravedad entre dos partículas elementales se hace tan fuerte como cualquier
otra fuerza entre ellas. La energía a la que esto sucede es 1019 GeV,
llamada energía de Planck, es la que tuvo lugar en el big bang.
Podemos aplicar las ecuaciones de la MC a las ecuaciones de la RG,
pero volvemos al problema de los infinitos. Cada infinito se puede
cancelar agregando nuevos términos, pero así se llega a una teoría con
infinitas constantes desconocidas que puede ser útil para calcular procesos
a energías relativamente bajas, a las que los términos que hay que agregar
son despreciables, pero pierde poder predictivo cuando se la aplica a la
escala de Planck. Al presente estos procesos son incalculables.
Por supuesto estas energías no pueden alcanzarse experimentalmente,
pero para poder considerar una teoría como satisfactoria no sólo tiene que
reproducir los resultados de los experimentos sino hacer predicciones para
experimentos que en principio sean plausibles. En este sentido la RG está
en la misma situación en que estaba la teoría débil antes de la formulación
de la teoría electrodébil a fines de los '60: RG funciona bien cuando
puede ser testeada experimentalmente pero contiene contradicciones internas
que muestran que debe ser modificada.
El valor de la energía de Planck nos pone frente a nuevo problema
formidable. Esta energía es tremendamente grande aparece a un nivel tan
profundo que podemos suponer que la energía de Planck es la unidad
fundamental de energía que aparecerá en la teoría final.
Como el MS no incluye la gravedad pensamos hoy que es una
aproximación de bajas energías de la teoría unificada fundamental y que
pierde su validez a energías como la de Planck. Ahora se piensa que las
ecuaciones del MS no son del tipo sencillo de las que son renormalizables
sino que en realidad contienen todos los términos compatibles con las
simetrías de la teoría. El motivo por el que las teorías renormalizables
funcionan tan bien sería que todos los términos en las ecuaciones de campo,
excepto los renormalizables, vienen divididos por potencias de la energía
de Planck. El efecto de estos términos sobre cualquier proceso físico
observado sería entonces proporcional a potencias del cociente de la
energía del proceso por la energía de Planck, una cantidad tan pequeña como
una parte en 1015. Es decir que practicamente la condición de
renormalizabilidad era correcta, aunque se imponía por motivos que ya no
son relevantes.
CONCLUSIONES
La teoría final puede estar muy lejos y ser muy diferente de todo
lo que hoy sabemos o podemos imaginar. Es muy probable que esta teoría
incorpore la mecánica cuántica pues nadie ha sido capaz de modificar la MC
de modo de preservar sus éxitos sin llevar a absurdos lógicos. También se
supone que la teoría final descansará en principios de simetría, como las
actuales MS y RG: las simetrías espacio tiempo de la RE que requieren que
el MS sea formulado como una teoría de campos, y simetrías internas que
dictan la existencia del campo em y los otros campos que llevan las fuerzas
del MS.
Los últimos 15 años han visto el desarrollo de un marco
radicalmente nuevo para una teoría cuántica de la gravedad y posiblemente
todo lo demás: la teoría de cuerdas. Esta teoría nos ha dado el primer
candidato posible para una teoría final.
Desde este punto de vista el MS es una aproximación de bajas
energías de una teoría fundamental que no es una teoría de campos, sino de
cuerdas. Esta ruptura radical marca el comienzo de una nueva era
postmoderna en física.
Como las cuerdas incorporan gravitones y todas las otras partículas
parecen proveer por primera vez la base para una posible teoría final.
Como el gravitón parece ser una característica inevitable de cualquier
teoría de cuerdas, se puede decir que la teoría de cuerdas explica por qué
existe la gravitación.
Las teorías de cuerdas también parecen haber resuelto el problema
de los infinitos que habían plagado las teorías cuánticas previas de la
gravedad. Las cuerdas parecen estar libres de infinitos.
Una diferencia fundamental entre las teorías de cuerdas y las
teorías previas es que los principios no se ponen a mano; son
consecuencias matemáticas del modo particular en que las reglas de la
mecánica cuántica se satisfacen en cada paso particular. Hasta ahora sólo
existe una formulación muy elegante matemáticamente, pero para ser
verdaderamente exitosa la teoría debe tener una única solución a partir de
la cual podamos saber qué tipos de partículas existen a bajas energías, sus
masas, las intensidades de sus interacciones, probabilidades de todo tipo
de procesos. Sólo realizando estos cálculos y comparándolos con el
experimento podremos saber si la teoría es correcta.
Todavía no hay un test decisivo de la teoría, no hay predicciones
cuantitativas. Pero es la única fuente presente de candidatos para una
teoría final. Se puede pensar en la teoría de cuerdas como la instancia
inicial de un programa que contiene la primera teoría matemáticamente
satisfactoria de la gravedad cuántica y que además parece ser un candidato
plausible para describir también las otras fuerzas de la naturaleza.
Un incentivo para recorrer el duro camino de entender las teorías
de cuerdas es que, si las supercuerdas realmente constituyen una
explicación cuantitativa de todas las partículas e interacciones de la
naturaleza, representarán uno de los mayores éxitos científicos de la
historia de la Humanidad.
Pero no todos los físicos comparten este optimismo. Algunos
piensan, filosófica y científicamente, que estos esfuerzos están dirigidos
en la dirección equivocada. Entre ellos, Richard Feynman dijo,
refiriéndose a las cuerdas: "...creo que todo esto es un disparate."
Más información en: http://www.feyman.physics.lsa.umich.edu/strings2000/
mtheory.html http://www.superstringtheory.comlindex.html
///
[] ESTRÓGENOS NO TAN BUENOS
Desde hace algunos años se ha tomado como práctica terapéutica
habitual, la utilización de parches de estrógenos en mujeres
menopáusicas. Mediante las mismas se intenta compensar la falta de
hormonas propias del la etapa reproductiva femenina, con el fin de
mejorar su calidad de vida sexual y evitar riesgos de nefermedades
asociadas a la menopausia tales como la osteoporosis. Sin
embarhgo, nuevos estudios realizados en los Estados Unidos
demostrarían que estas terapias hormonales no son tan inocuas.
La doctora Emily White, autora principal del estudio y epidemióloga
del Centro de Investigación en Cáncer Fred Hutchinson de Seattle, Estados
Unidos, dijo que la evidencia acumulada de que las terapias de reemplazo
hormonal elevan el riesgo de cáncer de mama son "muy fuertes". La doctora
White también dijo que la idea de que estas terapias previenen la
enfermedad cardiovascular -idea que constituye la causa principal para la
recomendación del uso de estrógenos después de la menopausia- ha sido
cuestionada por estudios recientes.
"Creo que la comunidad científica necesita reevaluar los riesgos y
beneficios para contar con nuevas sugerencias y consensos sobre las
terapias de reemplazo hormonal", afirmó.
El estudio suma evidencia de que las mujeres que se someten a
terapias de reemplazo hormonal durante cinco años o más tienen un riesgo
mayor de sufrir cáncer de mama, especialmente de un tipo conocido como
tumor lobular, que representa entre el 5 y el 10% de todos estos cánceres.
El informe, publicado en el Journal de la Asociación Médica
Norteamericana (JAMA), muestra que las mujeres que toman hormonas durante
cinco años o más tienen -en los siguientes seis años- un aumento del riesgo
que oscila entre el 60 y el 85%, en relación con las que no toman. Los
hallazgos se aplican igualmente a las mujeres que toman estrógenos como a
las que los toman en combinación con otro hormona, la progesterona.
Trasladando estos porcentajes a casos, el estudio revela que de
100.000 mujeres que no toman hormonas, 253 sufrirán un tumor de mama (23
del tipo lobular), mientras que entre las que consumen estrógenos se
producirán 419 casos (70 lobulares).
"Cada vez está más claro que los beneficios son mucho más pequeños
de lo que esperábamos y que los riesgos son considerables -dijo el doctor
Clifford Hudis, jefe del Servicio de Medicina Mamaria del Memorial
Sloan-Kettering Cancer Center, de Nueva York, Estados Unidos-. Pero antes
de entrar en pánico deberíamos tener una visión más amplia de cuál es su
impacto en la sociedad. Aun cuando eleven el riesgo de sufrir una forma
rara de cáncer, la visión más general está mejorando: los índices de
mortalidad por cáncer de mama en los Estados Unidos están cayendo."
Por otro lado, las terapias de reemplazo hormonal previenen el
adelgazamiento de los huesos y combaten los sofocos y otros síntomas de la
menopausia. Hasta que se cuente con estudios más amplios, las mujeres y
sus médicos deberán realizar elecciones basadas en la información
disponible que es aún incompleta.
"No podemos ser dogmáticos sobre estas terapias -dijo Hudis-. Para
algunas mujeres, la mejoría en la calidad de vida que aportan la vuelven
claramente útiles. Pero sus beneficios para la salud están hoy mucho más
cuestionados y sus riesgo, mejor definidos."
///
[] BREVES DE CIENCIA Y TÉCNICA
> ROBOTS EN LAS PIRAMIDES. Un extraño caso en la investigación de
las pirámides acabó, increíblemente, en otro descubrimiento. La National
Geographic Society efectuó días pasados reiterados anuncios de la
exploración de un conducto de la pirámide de Keops por medio de una pequeña
cámara robot, cuyo reducido tamaño le permitiría introducirse por espacios
muy pequeños. El evento fue televisado en vivo, con millones de
televidentes siguiendo paso a paso el recorrido del robot. Pero cuando el
dispositivo llegó al final del recorrido, se topó con un objeto que bloqueó
su paso, posiblemente otra puerta.
"Lo que hemos visto esta noche es algo único en el mundo de la
egiptología. Nada se le compara, ya que estos pasajes no existen en otras
pirámides, con o sin puertas. La presencia de una segunda puerta
profundiza más aún el misterio que rodea a la Gran Pirámide", dijo al
respecto Zahi Hawass, jefe del Consejo Superior de Antigüedades de Egipto.
El hallazgo, lejos de cualquier exitismo televisivo, no deja de
resultar prometedor. Los científicos que trabajan en el proyecto han
señalado que tienen esperanzas de que del otro lado del obstáculo se
encuentre una cámara secreta. Pero el misterio no será develado a corto
plazo, ya que para poder acceder a la misma estiman que necesitarán un año
más de dura labor. "Quizás haya algo perteneciente a Keops escondido
detrás de la segunda puerta. O quizá no haya nada. Lo cierto es que hemos
descubierto qué había detrás de la puerta y revelado que el enigma
continúa. Ese es el valor de nuestro hallazgo", expresó Hawass.
"Pyramid Rover", la cámara robot utilizada, es un instrumento
pequeño del tamaño de un tren de juguete, pero con un costo de U$S
250.000.-. Fue especialmente desarrollado por la empresa iRobot para esta
misión, y se comportó perfectamente, realizando un recorrido de unos 60
metros que le llevó cerca de dos horas, durante el cual mostró imágenes de
excelente calidad.
El programa será transmitido en nuestro país por el canal de la
National Geographic, este sábado 21/09 a las 22hs.
Más información:
http://crater.nationalgeographic.com/pyramids/pyramids.html
http://www.nationalgeographic.co.uk/egypt_chambers/egyptchambers.shtml
http://www.irobot.com/home/default.asp
///////////////// FIN DE LA SEGUNDA SECCION \\\\\\\\\\\\\\\\\
\\\\\\\\\\\\\\\\ CONTINUA EN TERCERA SECCION /////////////////
Educyt, semanario de noticias de Educacion, Universidad, Ciencia y Tecnica
Editores responsables: Fernando Demarco y Carlos Borches
E-mail: educyt@de.fcen.uba.ar
|