¿Pueden los minúsculos neutrinos derruir el sólido edificio de la Física?

3 10 2011

einsteinneutrinos.jpg

Los neutrinos, esas partículas con masa prácticamente nula, sin carga y difícilmente detectables, casi fantasmales, están de moda.  Un experimento realizado en el CERN parece haber detectado neutrinos cuya velocidad excede a la de la luz (ver post más abajo). La noticia saltó a las primeras páginas de los periódicos y los titulares se hicieron eco de la enorme trascendencia del descubrimiento. Pero ¿por qué este hecho tiene tanta relevancia?

El razonamiento que aquí se sigue está extraído del magnífico libro “Construyendo la Relatividad“, de Manuel F. Alonso y Vicente F. Soler que debería leerse todo aquella persona que tenga algún interés en comprender los conceptos fundamentales implicados en le Teoria de la Relatividad.

La T. Especial de la Relatividad (TER) se asienta en dos postulados básicos:

  •  El valor de la velocidad de la luz es constante e independiente de que haya sido emitida por un cuerpo en reposo o en movimiento.
  • La velocidad de la luz es un valor límite superior a la velocidad de cualquier objeto.

Partiendo de estos postulados Einstein llega a la conclusión de que espacio y tiempo no son magnitudes independientes, sino que están relacionados entre sí formando lo que se llama el continuo o entramado espacio-tiempo (tetradimensional) y no son conceptos absolutos, tal y como se suponía en la física newtoniana, ya que dependen del sistema de referencia desde el cual se midan.

Una herramienta muy útil para entender algunos de los conceptos y consecuencias de la T. de La Relatividad son los llamados diagramas de Minkowski. La versión bidimensional de los mismos nos ayuda, al situarnos en sólo dos dimensiones, a entender conceptos que podemos después extrapolar al continuo espacio-tiempo tetradimensional. En estos diagramas en el eje de ordenadas se sitúa el tiempo (t) y en el de abscisas la posición espacial (x), aunque normalmente por un problema de escala se multiplica el tiempo por la velocidad de la luz (c). De esta manera en el eje y representamos el espacio recorrido por la luz en el tiempo considerado (ya que espacio recorrido y tiempo empleado son proporcionales: x = c t).

La historia de un punto (dónde está y en qué instante) quedará entonces registrada por una línea en ese diagrama. Por ejemplo, algo que permanezca estático se indicará con una línea paralela al eje de los tiempos. Si se mueve, esa línea se irá inclinando a derecha o izquierda de la vertical (hacia adelante o hacia atrás), tanto más cuanto mayor sea su velocidad.

Un cuerpo que se mueva a la velocidad de la luz se situará a lo largo de una línea cuya pendiente sean 45 0(punto verde). Cualquier velocidad inferior a la luz vendrá representada por una línea de menor inclinación respecto de la vertical (punto azul). Las líneas que representen movimientos con velocidades superiores a las de la luz (punto rojo) no son posibles según la TER. Esta es, precisamente, la línea que sigue el poco respetuoso neutrino que aparece en la ilustración que encabeza el post.

mkwki2.gif

El universo accesible para un suceso quedará entonces en el interior de las dos líneas (un cono en un espacio tridimensional) que representan la velocidad de la luz hacia arriba del suceso y hacia abajo del mismo. El acceso al sector superior implica viajar en el sentido positivo del eje de ordenadas (tiempo creciente), es decir, representa el futuro accesible, ya que sucesos contenidos en este área pueden tener estar relacionacionados causalmente. Esto es, uno (el que suceda antes, por ejemplo la aplicación de una fuerza) puede ser causa del otro (el que suceda después, aparición de una aceleración). Un punto situado en el exterior del sector señalado, nunca será accesible, Es decir, no puede relacionarse causalmente con otro situado en el interior del cono, no puede existir ningún tipo de interacción entre ambos, puesto que implicaría viajar a velocidades superiores a las de la luz. Obsérvese que también es posible (al menos teóricamente) viajar hacia el pasado (tiempo decreciente), siempre que lo hagamos a una velocidad inferior a la de la luz. Por eso el sector que agrupa todos los posibles viajes se denomina pasado accesible

conos.gif

Los diagramas de Minkowski permiten deducir también qué es lo que pasa en dos sistemas de referencia que se estén moviendo con velocidad constante uno respecto del otro (aquí está el quid de la cuestión). El origen de un sistema que se desplace hacia la derecha con determinada velocidad tendría una historia descrita por la línea azul situada por encima de la que representa v =c (eje de ordenadas). Como la velocidad de la luz debería de ser exactamente igual a la de un observador en reposo, el eje de abscisas debería de ser simétrico al de ordenadas respecto a la línea v=c. Luego ambos ejes formarían una especie de V cuya bisectriz sería la línea v =c y podríamos obtener el valor de x y t para cada sistema proyectando la posición del punto sobre ambos ejes.

dossistemas.gif

En el siguiente diagrama se representan dos sucesos. El suceso F representa la fecundación de una persona y N el nacimiento. Como se ve el nacimiento no se produce en el mismo lugar en el que ha tenido lugar la fecundación, ya que ha habido un desplazamiento (a velocidad siempre inferior a la de la luz, desplazamiuento en el interior del cono de luz). La fecundación es la causa del nacimiento y, en consecuencia, siempre debe ser anterior a éste (Principio de Causalidad: la causa siempre precede al efecto).

La primera cosa que llama la atención es que el intervalo temporal (tN-tF) para el sistema en reposo y ( t’N-t’F)  para el sistema en movimiento, no es el mismo. Es menor para el sistema en movimiento. Otro tanto se puede argumentar para los intervalos espaciales (xN-xF) y ( x’N-x’F). Esto es, exactamente, lo que predice la TER. El tiempo transcurre más lentamente para un observador en movimiento y las longitudes se acortan.

t_e_dossistemas.gif

La pregunta clave es ¿puede existir un sistema en el cual N (el nacimiento de una persona) pueda ser anterior a F (su fecundación)? De ser así se burlaría el Principio de Causalidad y se llegaría a un absurdo. La respuesta es negativa, siempre que se cumplan los postulados de la TER. Para que fuera posible debería de ser posible viajar a velocidades superiores a las de la luz. Un viaje de este tipo está representado en el siguiente diagrama, donde el suceso representado por el segundo punto rojo se ha desplazado fuera del cono de luz (v>c).  En este caso, y en el sistema en movimiento, el nacimiento (¡increíblemente¡) es anterior a la fecundación, el Principio de Causalidad se viola.

nocausalidadb.gif

Si se pudiera viajar a velocidades superiores a las de la luz se violaría el Principio de Causalidad y, entonces, serían posibles situaciones absurdas en las que alguien viaja al pasado y mata a su padre, con lo cual se imposibilitaría su propio nacimiento. O que (como se cuenta en una película bastante popular) en el viaje al pasado conozcas a la que después sería tu madre, te enamores y te cases con ella. ¿Es posible que una misma persona sea su propio padre?  Pues bien, esas partícuas fantasmales, los neutrinos, parece ser que han transitado por este territorio hasta ahora vedado. Una física en la que no se respete el Principio de Causalidad no parece que tenga muchos visos de ser viable. La grieta sería demasiado profunda, el edificio se derrumbaría como un castillo de naipes. Esperemos que los neutrinos nos hayan engañado con una salida nula.



Neutrinos: ¿tramposos o más veloces?

25 09 2011

neutrinos.jpg
Por su interés se reproduce a continuación el artículo aparecido en La Nueva España de Asturias (24/09/2011) y firmado por Amador Menéndez Velázquez, investigador del ITMA y del MIT

Original en:

http://www.lne.es/sociedad-cultura/2011/09/24/neutrinos-tramposos-o-veloces/1133346.html 

Un experimento del CERN afirma haber detectado neutrinos que podrían haber viajado más rápido que la luz. De confirmarse este hallazgo, sería algo realmente revolucionario. Quizá no tenga muchas aplicaciones prácticas inmediatas, pero de alguna forma cambiaría nuestra forma de entender el Universo. No obstante, afirmaciones extraordinarias requieren pruebas extraordinarias y también sutiles interpretaciones.

Richard Feynman afirmaba: «Allí, al fondo, hay sitio de sobra». Efectivamente, en las intimidades de la materia hay sitio de sobra, incluso para los errores. El experimento afirma que las diminutas partículas viajaron 730 kilómetros -la distancia que separa el CERN de Ginebra de un laboratorio italiano- y que lo hicieron 60 nanosegundos más rápido que la luz, que emplearía un tiempo de 2,4 milisegundos. Pero mientras la llegada de los neutrinos a Italia puede establecerse con suma precisión, no sucede lo mismo con su salida en el CERN.
Los neutrinos podrían «haberse escapado de los tacos de salida». Son partículas casi sin masa, a las que no les gusta interaccionar con nada y escapan rápidamente de todo, por lo que podrían haber protagonizado una «salida nula». No sería la primera vez.

Las supernovas son explosiones de estrellas. Cuando se produce una de esas violentas explosiones, la materia se rompe en trozos muy pequeños como neutrinos. Éstos deben escapar de la estrella que explotó casi de inmediato, puesto que apenas se «relacionan» con el resto de la materia, son partículas «muy poco sociales». A la luz, sin embargo, le lleva unas tres horas escapar de la supernova. Y esto fue lo que se midió en año 1987, cuando millones de neutrinos llegaron a nuestro planeta tres horas antes que la luz de la difunta estrella.

Volviendo al símil atlético, también cabe la posibilidad de que los neutrinos hayan cambiado de calle y hayan atajado. Los teóricos postulan la existencia de otras dimensiones. Es posible que los neutrinos hayan optado por una dimensión diferente y que hayan viajado algo menos de 730 kilómetros. De ser así, no es que hayan viajado más rápido que la luz, sino que han recorrido menos distancia. Por supuesto, también es posible que los neutrinos ni hayan protagonizado una salida nula ni hayan atajado y que realmente hayan sido los más rápidos. De momento, todo son conjeturas un tanto arriesgadas en un mundo subatómico, donde las leyes de la física son diferentes de aquellas a las que estamos habituados. Ya hay quien pone en tela de juicio la teoría de la relatividad de Einstein. De momento, no tiremos los libros de Física a la papelera, seamos prudentes. En cualquier caso, sea lo que sea, ¡se abre otro fascinante capítulo en la historia de la Física!



Quantum Hotel

7 02 2010

Esta película necesita Flash Player 7

 La imagen situada encima de esta línea es algo más que eso. Es un pequeña aplicación Flash en la que es posible arrastrar los elctrones situados a la derecha hacia las “habitaciones” (niveles de energía) de un hotel muy particular: el Quantum Hotel.

La distribución del Quantum Hotel es bastante singular. Su primera planta sólo tiene una habitación, que su dueño (un tipo bastante excéntrico) ha decidido identificar como “s”. La habitación (de reducidas dimensiones) admite como máximo dos huéspedes (electrones). Los niveles siguientes tienen habitaciones “p”, que admiten un número máximo de seis huéspedes o electrones ; las ”d” un máximo de diez electrones y las f un máximo de catorce electrones.

El  orden de llenado de las habitaciones tampoco es muy lógico, como corresponde a la personalidad del dueño. Para recordarlo el director del hotel ha elaborado un diagrama (diagrama de Möeller) que se puede ver en la imagen.

El juego consiste en ir “alojando” electrones siguiendo las normas que se dan.

Una vez alojados los electrones se puede resumir la distribución escribiendo algo tal como: 1s2 2s2 p3,  lo que indica que en la habitación “s” de la primera planta hay dos electrones y en la segunda planta hay dos electrones en la habitación “s” y tres en la “p”.

Como se puede ver lo que se pretende es introducir la estructura electrónica de los átomos de forma amena. Puede ser útil en 3º de ESO. La experiencia demuestra que tiene éxito, así que si alguien quiere probar puede encontrar la aplicación (a tamaño natural) en FisQuiWeb

http://web.educastur.princast.es/proyectos/fisquiweb/atomo/hotel.htm



Los dominadores de la luz

8 12 2009

nobelfisica_09.jpg

El Premio Nobel de Física 2009 ha sido concedido a Charles Kuen Kao (1933. China) por un lado y a Willard Sterling Boyle (1924. Canadá) y George Elwood Smith (1930. USA) por otro (de izquierda a derecha en la foto).

Kao está considerado como el padre de la fibra óptica ya que fue él quien resolvió los principales problemas planteados para que un rayo de luz, introducido en el interior de una fibra de vidrio, pudiera ser utilizado para la transmisión de datos a largas distancias.

En la segunda mitad de los años sesenta se sabía que, debido al fenómeno de la reflexión total, un rayo de luz podía quedar “atrapado” en el interior de un cable de vidrio, pero después de sólo veinte metros de recorrido sólo un 1% de la luz permanecía en el interior de la fibra. Las pérdidas eran enormes.

Kao estudió el fenómeno y llegó a la conclusión de que las imperfecciones del vidrio eran la causa principal. Era necesario obtener vidrio de una pureza y transperencia desconocida hasta entonces para lograr que la transmisión mediante rayos de luz fuera posible. Se utilizó sílice como materia prima (en lugar de cuarzo) y se rediseñaron los procedimientos químicos. El resultado fue la obtención de un nuevo vidrio: fuerte, ligero y flexible en el cual la luz se propaga con pocas pérdidas. Hoy en día innumerables datos fluyen a través de una red de fibra de vidrio cuya longitud se estima en más de mil millones de kilómetros, longitud suficiente para rodear nuestro planeta más de 25 000 veces, aunque esto es sólo el principio.

 Willard Boyle y George Smith son los inventores del sensor digital de imágenes conocido con las siglas CCD (Charge Coupled Device) que ha permitido el desarrollo de la fotografía digital arrinconando las películas fotográficas como medio para almacener las imágenes.

El CCD es, a grandes rasgos, una simple placa de silicio que contiene millones de fotocélulas sensibles a la luz. Cuando sobre estas fotocélulas incide la luz se produce la emisión de electrones (efecto fotoeléctrico) que se acumulan en las propias fotocélulas. A mayor cantidad de luz, más electrones son liberados.  A continuación los electrones contenidos en la matriz formada por las fotocélulas pueden ser extraídos y leídos ordenadamente para ser convertidos en una sucesión de ceros y unos que reconvertidos en píxeles recomponen nuevamente la imagen

ccd2.jpg

La sensibilidad del CCD ha hecho posible la obtención de las espectaculares imágenes que el Hubble envía a la Tierra. También en el mundo de lo muy pequeño es útil: la obtención de las imágenes de los ribosomas (las “fábricas” de proteínas de los organismos vivos) obtenidas mediante dispersión de rayos X (que han sido galardonadas con el Premio Nobel de Química de este año) se han podido obtener mediante el empleo de sensores CCD.

Mas información:

Fundación Nobel

Fisquiweb



9,58… ¿Cerca del límite?

2 09 2009

fotofin.jpg 

Sucedió en Berlín el 23 de julio. A las 20:00 h se disputó la final de los 100 m lisos (hombres) de los XII Campeonatos de Atletismo de la IAAF. Millones de personas pudieron ver como Usain Bolt pulverizaba el anterior record del mundo de la distancia (que él mismo ostentaba) rebajándolo en 0,11 s y dejándolo en unos asombrosos 9,58 s.  A pesar de la marca conseguida muchos tuvimos la impresión de que el jamaicano no estaba al límite de sus posibilidades. La foto que encabeza este post lo atestigua. Bolt, casi un metro antes de llegar a meta, se relaja y vuelve la cabeza hacia el marcador. Detrás todos los atletas (excepto Darvis Patton que corría por la calle ocho) corrían la distancia en 10:00 s o menos.

Pero… ¿dónde está el límite? Las matemáticas, una vez más, tienen algo que decir al respecto. John Einmahl y Sanders Smeets de la universidad holandesa de Tilburg realizaron un estudio estadístico con más de mil atletas. Esta vez el estudio no pretendía establecer los clásicos valores promedio de la muestra, sino determinar los valores extremos de la misma, los límites. En lenguaje más técnico se pretendía estudiar “la cola” de la distribución. La teoría de los valores extremos es una teoría matemática dedicada, precisamente, a establecer dichos valores y que es muy utilizada en meteorología, hidrología, finanzas y muchos otros campos en los que el conocimiento de los valores extremos de las precipitaciones, el caudal de los ríos o las cotizaciones de determinados valores es una información valiosa.

Pues bien, el análisis realizado arroja, como límite para el record de los 100 m lisos masculinos, 9,51 s. La marca de Usain, por tanto, está muy cerca de dicho límite.

Además de esta aproximación al límite de la velocidad humana la carrera de Berlín nos aporta bastantes más cosas. En ella se utilizó un procedimiento de medida de tiempos, distancias y velocidades conocido como LAVEG (Laser Velocity Guard) que utiliza pulsos de láser emitidos cada 0,01 s.

laveg.gif

Los valores obtenidos pueden verse en la web oficial de los campeonatos y se resumen en la tabla que se muestra. Las gráficas se han obtenido procesando los datos con una hoja de cálculo.

 datos.gif

graf_v_s.gif

graf_a_s.gif

 A lo mejor no sería mala idea usar todo ello en nuestras clases para explicar qué es velocidad, aceleración, movimiento uniforme y uniformemente acelerado, cómo se hace una gráfica, qué información se puede extraer de ella, cuáles son los valores que conviene representar, etc. La ventaja es que (todos) tendríamos como profesor al propio Bolt y seguro que su lenguaje se aleja bastante del de los libros de texto ¿Por qué no intentarlo? Estamos a punto de empezar un nuevo curso. Pues eso, a ver si es “nuevo” de verdad. Bolt ya ha hecho su parte.

Más información:

Análisis biomecánico de la final de 100 m lisos (IAAF)

LAVEG

Artículo de El País sobre el límite del record

Teoría de valores extremos



1609-2009

12 01 2009

portada.jpg

En 1609, hace exactamente cuatrocientos años, Galileo usó el telescopio que él mismo había hecho, inspirándose en las construcciones de artesanos holandeses, para mirar al cielo. Vió algunas cosas desconcertantes para la época:

  • La Luna tenía un aspecto parecido a la Tierra, estaba llena de cráteres, de altas montañas, de valles… nada parecido a lo que la cosmología aristotélica afirmaba. Según  Aristóteles la composición de los astros no tenía nada que ver con la de nuestro mundo. Estaban formados por un quinto elemento eterno e inmutable llamado éter.
  • Había más estrellas de las que podían verse a simple vista y, además, no parecía que éstas estuvieran localizadas sobre la superficie de una esfera, tal y como se afirmaba en la época. El universo tenía profundidad.
  • Y lo más desconcertante… alrededor del planeta Júpiter giraban cuatro lunas… La cosmología de la época afirmaba que la Tierra era el centro del Universo y alrededor de ella giraban todos los astros.

Ante las pruebas Galileo se convenció de que la teoría propuesta por Nicolás Copérnico en 1543 que afirmaba que los planetas giraban alrededor de un Sol inmóvil, tenía visos de ser cierta. Había, no obstante, un pequeño inconveniente. Aparentemente la doctrina copernicana estaba en contradicción con un pasaje de la Biblia (Josué, 10 12-15) donde podía leerse: “Paróse, pues el Sol en medio del cielo, y detuvo su carrera sin ponerse por espacio de un día”.

La doctrina copernicana fue declarada herética en 1616 y Galileo, como todo el mundo sabe, juzgado como sospechoso de herejía en 1633.

Lo que realmente trataba de parar el Santo Oficio era el nacimiento de un nuevo método basado en la observación directa de los fenómenos naturales y su explicación sin el auxilio de la Teología, considerada entonces como la ciencia a la que debían someterse todas las demás. La subordinación de la razón a la fe estaba en peligro.

Tuvieron que pasar muchos años hasta que en 1992 el entonces papa, Juan Pablo II, tras una revisión profunda del proceso a Galileo, declarara que no hay incompatibilidad entre el saber científico y la fe cristiana.

Este año, el 2009, ha sido declarado Año Internacional de la Astronomía . Galileo será, con toda seguridad, uno de los protagonistas, por eso FisQuiWeb ha querido sumarse a esta celebración elaborando una biografía especialmente destinada a estudiantes de secundaria.

Más información:

Biografía de Galileo

Línea de tiempo

Web oficial Año Internacional de la Astronomía



Ondas de choque

14 12 2008

choque1b.gif 

Las ondas de choque surgen cuando la fuente emisora (un altavoz en la animación que se muestra más abajo) se mueve a una velocidad mayor que la de propagación de las ondas en el medio. Entonces se forma (clic en el botón play para ver la animación) la “cuña” que se puede ver en la imagen.

Esta película necesita Flash Player 7

Esta es la forma típica de la estela de un barco que se desplaza en el agua. Las crestas de las diversas ondas se acumulan en una zona delimitada por las rectas de color rojo que forman entre sí un ángulo α. Existe una relación entre este ángulo, la velocidad de propagación de las ondas (v0) y la de la fuente (v), que se recoge en la figura de más abajo. En ella OA es la distancia recorrida por la onda en un tiempo t. En ese tiempo la fuente emisora se ha desplazado una distancia OB, por tanto el ángulo será tanto menor cuanto más rápido se desplace la fuente emisora.

choque3b.gif

 Como es bien conocido el sonido es una onda consistente en compresiones (crestas) y enrarecimientos (valles) del aire que se desplaza a una velocidad aproximada  de 340 m/s (1224 km/h). Si la fuente que emite las ondas sonoras viaja a velocidades superiores a la del sonido, un avión por ejemplo, se produce un cono (la figura en tres dimensiones correspondiente al ángulo dibujado en el ilustración) en cuyas generatrices se acumulan las crestas de onda. En consecuencia, cuando esta acumulación de aire comprimido alcanza a un observador (hombre con sueter verde en la figura), éste percibirá un sonido muy intenso (estampido sónico). Una vez que la onda de choque pasa (mujer con vestido rojo) el sonido del avión se percibe con normalidad. Curiosamente la pareja que tiene el avión encima de sus cabezas no percibe sonido alguno.

La intensidad del estampido varía con la altura a la que el avión pasa. Así si el avión vuela a baja altura la onda de choque puede provocar grandes destrozos, mientras que si vuela a 10.000 m de altura es poco perceptible.

Realmente se produce un doble estampido ya que se forman dos ondas de choque, una en la proa del avión y otra en su cola.



¿Por qué …? ¿Por qué …?¿Por qué …?

24 11 2008

nobelfisica_08.gif

 Y es que el personal (sobre todo el personal que se dedica a la física) no deja de hacerse preguntas, ¿por qué si al principio (en el Big Bang) había tanta materia como antimateria al final la primera ganó la partida? ¿Por qué la masa de las partículas elementales tiene valores tan dispares? ¿Por qué existen particulas elementales con masa y otras, como el fotón, carecen de ella?

Y ahí los tenéis, de izquierda a derecha: Yochiro Nambu (USA), Makoto Kobayasi (Japón) y Toshihide Maskawa (Japón). Son los galardonados con el Premio Nobel de Física 2008. Ellos han tratado de dar respuesta (al menos parcial) a estas preguntas. Y es que la clave está en la simetría. O mejor, en la ruptura de la simetría perfecta que debía haber al principio del universo. Una ruptura que permitió distinguir materia de antimateria y que hizo que las partículas, inicialmente sin masa, interaccionaran con el campo de Higgs de manera diferente para adquirir masas distintas.

Para una información más detallada ver Premio Nobel de Física 2008 en FisQuiWeb



Whitesides, Nakamura, Iijima, Langer, Marks

26 10 2008

conferencia2.jpg

Foto: Fundación Príncipe de Asturias

El pasado jueves (entrada gratuita y libre), y en la biblioteca de la antigua facultad de Derecho, pudimos ver y oir a los galardonados con el Premio Príncipe de Asturias de Investigación Científica y Técnica. Allí, a muy pocos metros de quien esto escribe, Whitesides nos contó qué es el autoemsamblado molecular y cómo puede usarse para obtener materiales con propiedades “a la carta” que mejoren, por ejemplo, las células solares y permitan un abaratamiento sustancial de la tecnología destinada al aprovechamiento de la energía solar.

Nakamura nos habló de sus LEDs y de las enormes posibilidades que brindan: son diez veces más eficientes que las bombillas actuales, no emiten calor y su vida es prácticamente ilimitada. Su bajo consumo los convierten en una opción para los paises más pobres con problemas de distribución en su red electrica, ya que pueden ser utilizados en combinación con los paneles solares.

Iijima nos presentó los ya famosos nanotubos de carbono, comentó sus espectaculares propiedades y las enormes posibilidades de utilización de los nanometariales. Una de las aplicaciones de los nanotubos puede ser su utilización para almacenar hidrógeno, el combustible del futuro

Langer nos alucinó con su relato de “ollas” de medicamentos, nanopartículas rellenas de medicamentos que pueden ser liberados por control remoto (o mediante sensores biológicos) en función de las necesidades. La posibilidad de utilizar materiales especiales como andamiaje para que células madre creen los tejidos que necesitemos, ya no es ciencia ficción.

Y por fin Tobin Marks, el único que no uso el consabido Power Point para ilustrar su exposición, se limitó, practicamente, a agradecer el premio. Tobin recibió el premio por su contribución a crear nuevos tipos de plásticos biodegradables y flexibles que pueden ser usados en la fabricación de nuevas células fotovoltaicas mucho más eficientes y baratas. Además, es el padre de los OLED,o diodos emisores de luz, basados en materiales orgánicos con los que se fabrican PDAs, móviles o el papel electrónico.

Un placer y un privilegio haberlo vivido. Gracias Amador.



¿Hadrones?

5 10 2008

leptonesquarks.jpg

El esquema actualmente aceptado por la mayoría de los físicos (Modelo Estandar) sostiene que la materia está formada por doce partículas elementales (además de sus correspondientes antipartículas) las cuales podríamos decir que son los verdaderos átomos, y que pueden ser agrupadas según el esquema que puede verse más arriba.

Los protones y neutrones son, según este modelo, partículas formadas por la combinación de tres quarks. Un protón está formado por quarks (uud) y un neutrón por la combinación (udd):

protonneutron.jpg

Las diferencias entre los quarks explican muchas propiedades de las partículas. El quark u tiene carga +2/3 (lo que quiere decir que su carga es positiva e igual a 2/3 de la carga del electrón), mientras que el quark d tiene carga - 1/3. De ahí que la carga eléctrica del protón sea: 2/3+2/3 - 1/3 = +1, mientras que la del neutrón: 2/3-1/3-1/3 = 0. Además el quark u es el más lígero de todos los quarks, y el quark d es un poco más pesado. Esto puede explicar la estabilidad del protón frente a la del neutrón. En este último caso, existe la posibilidad de que un quark d se convierta en un quark u (más ligero), mientras que la transformación inversa está prohibida por el principio de conservación de la energía.

Además de los quarks existen sus correspondientes antipartículas con la carga invertida (antiquarks). Las partículas formadas por la combinación de un quark  y un antiquark  reciben el nombre de mesones.

Tenemos, por tanto, dos clases de partículas formadas por quarks: aquellas que como el protón o el neutrón están formadas por la combinación de tres quarks, y a las que se les denomina de manera genérica bariones, y las formadas por la combinación quark-antiquark que reciben el nombre de mesones. Todas ellas tienen la característica común de que no son simples y se les da el nombre general de hadrones, para distinguirlas de aquellas otras que sí lo son (como el electrón) y que se agrupan bajo el nombre genérico de leptones.

hadrones.jpg