La masa del kilogramo patrón

1 Octubre 2015 por juannor

El kilogramo como unidad se define como la masa de un cilindro de platino e iridio (dos metales que no se oxidan fácilmente en contacto con el aire) que se conserva en el Bureau International des Poids et Mesures cerca de París. Fue fabricado a finales del siglo XIX y una réplica se encuentra depositada en el Centro Español de Metrología (www.cem.es).

Es la única unidad de las siete magnitudes fundamentales que emplea un prefijo, y la única unidad del SI que todavía se define por un objeto patrón y no por una característica física fundamental inmaterial.

Esta anacronía conlleva serios problemas. Se ha comprobado que, en apenas cien años, las réplicas del cilindro-patrón ya no pesan lo mismo que el cilindro depositado en París. La diferencia es de varios microgramos, lo que no parece mucho pero limita la precisión del valor de la Constante de Gravitación Universal, G, que es la constante universal con menos cifras significativas conocidas. Por comparar, en la página web del NIST el valor anotado de G es 6.67408 x 10-11 m3kg-1s-2, 6 cifras significativas, mientras que en esa misma página la constante de Planck es de 6.626070040 x 10-34 Js , 10 cifras significativas. Un auténtico desazón para la comunidad de físicos del planeta.

Además, no podemos estar seguros de que, por ejemplo, dentro de 500 años, la masa del cilindro-patrón no haya cambiado. No podemos estar seguros que la aleación de platino e iridio se mantenga inalterable a lo largo de los siglos. Al ser inmaterial no sucede lo mismo con las otras unidades fundamentales como por ejemplo el segundo. En efecto, el segundo se define como el tiempo empleado en 9 192 631 770 vibraciones de un reloj atómico basado en el Cs. Estamos razonablemente seguros de que esas 10 cifras significativas no van a cambiar en los próximos milenios.

La situación es, desde luego, muy insatisfactoria y el Comité Internacional de Pesos y Medidas ha propuesto en 2014 redefinir el kilogramo haciendo que la constante Planck tenga un valor fijo, lo que automáticamente elevaría la precisión de G hasta los diez decimales. Una situación muy parecida ya se vivió hace unos cuarenta años cuando se cambió la definición del metro, que dejó de estar referenciado a la longitud de una barra de platino e iridio, para ser la distancia que la luz recorre en el vacío durante 1/299 792 458  de segundo.

Ligar las unidades de medida a los valores exactos de las constantes universales y no al revés tiene adeptos y detractores, pero eso mejor lo dejamos para otro día.

Mi carpeta en Drive

15 Septiembre 2015 por juannor

Ahi os dejo el enlace a la carpeta de Drive en la cual voy a ir poneindo los archivos mas interesantes para el presente curso

https://drive.google.com/open?id=0B2FfTh7I1ZgwVjJPeG9MSmE2Njg

La dualidad de De Broglie y el método científico.

17 Abril 2015 por juannor

Hay dos maneras para tratar de convencer a los demás de que tus afirmaciones son verdaderas. En la viñeta de la izquierda las puedes ver resumidas: tipo (1) tengo los hechos y de ellos extraigo una conclusión y tipo (2) tengo la conclusión y ella me guía para buscar los hechos.

Lo primero que podeis pensar es que la Ciencia se guía por la secuencia (1) y que, por ejemplo, la religión (o la política) se guía por la secuencia (2).

La dualidad de De Broglie (1923) nos muestra que en la práctica los científicos usan la secuencia (2) para organizar sus pensamientos y luego usan la secuencia (1) para intentar convencer al resto de la comunidad científica de que, efectivamente, tienen razón.

En efecto, De Broglie, por las razones que fuesen, tenía una conclusión: dado que la luz exhibe una naturaleza dual ejemplificada por (a) la medida de su longitud de onda en un experimento de interferencias tipo Young  y (b)  la medida de la energía de los fotones de luz a partir del potencial de frenado en un experimento fotoeléctrico, entonces la materia también debe exhibir esa misma dualidad.

Así que al igual que la ley de Planck relaciona en el fotón de luz su carácter corpuscular (su energía E) con su carácter ondulatorio (su frecuencia ω)

E = (h/2π) ω   (Planck: dualidad para la radiación electromagnética)

debería existir otra ecuación que relacionase en una partícula su carácter corpuscular (su momento lineal p) con su carácter ondulatorio (el número de ondas k)

p =  (h/2π) k    (De Broglie: dualidad para las partículas)

Esta última ecuación aparece en los libros de texto con la longitud de onda despejada. Dado que por definición k = 2π/λ sustituyendo más arriba queda

λ = h/p

Desde luego, el razonamiento analógico anterior no convencería absolutamente a nadie y su director de tesis, Langevin, era muy consciente de ello. Era necesario buscar una secuencia tipo (1) que convenciese al resto de la comunidad científica.

De Broglie utilizó la capa electrónica estable del modelo de Bohr como “hecho” a partir del cual justificar su conclusión. En efecto, la condición para que una órbita electrónica sea estable es que el electrón como onda interfiera consigo mismo de manera constructiva. Asi que de la condición de interferencia constructiva que vimos en el tema de ondas

x2 - x1 = nλ  ;  n = 1, 2, 3 … etc

la diferencia de caminos es justamente la circunferencia de la órbita electrónica y sustituyendo:

2πr= nλ

y si en la expresión anterior sustituimos la longitud de onda electrónica por h/p obtenemos la cuantización del momento angular (rmv) de Bohr:

rmv=nh/2π        (2º postulado de Bohr)

Como premio añadido vemos que el factor 2π aparece de manera “natural” en la demostración. Por supuesto que Bohr, unos años antes, se lo tuvo que sacar de la manga.

Leer más »

Medida fotoeléctrica de la constante de Planck

10 Abril 2015 por juannor

Con la animación del efecto fotoeléctrico de la página del PhET vosotros mismos podéis medir la constante de Planck tal y como lo hizo Millikan en 1916.

Al representar el potencial de frenado de los electrones más energéticos frente a la frecuencia de la luz incidente sale una línea recta cuya pendiente es h/e.

La demostración es muy sencilla. Se parte de la ecuación de Einstein que expresa la conservación de la energía en el proceso fotoeléctrico:

hν(energía del fotón incidente) = W (energía para extraer un electrón del metal del cátodo) + Ec (energía cinética max del electrón arrancado)

La energía cinética max se mide a partir del potencial de frenado eVfrenado = Ec donde “e” es la carga del electrón.

y despejando ese Vfren  queda

Vfren = (h/e)  ν - (W/e)

que es la ecuación de una recta de pendiente h/e y ordenada en el origen W/e. Fijaos que, al ser h una constante universal, la pendiente no depende para nada de la naturaleza del metal del cátodo, por lo que podemos usar uno cualquiera.

El propio Millikan había obtenido unos años antes una medida muy cuidadosa de la carga del electrón a través del famoso experimento de la gota de aceite, así que ya disponía del valor de “e”. Como podéis ver en el recuadro el resultado que obtuvo es muy próximo al valor moderno aceptado de la constante de Planck : 6.62606896(33) ×10 -34 J.s y la diferencia en la potencia es debido a las unidades antiguas utilizadas por Millikan. Lo relevante en todo caso para el cálculo del error relativo de la medida es el valor numérico. Si hacéis los cálculos veréis que sale inferior al 1%.

Millikan recibió el premio nobel en 1923 por su magnífico trabajo experimental. Lo gracioso del caso es que la motivación personal que le llevó a idear este experimento era demostrar que….Einstein estaba equivocado y que la incipiente teoría cuántica era errónea. En sus propias palabras:

“la ecuación fotoeléctrica de Einstein…parece que predice exactamente en todos los casos los resultados observados…Sin embargo la teoría semicorpuscular por la que Einstein llegó a su ecuación parece actualmente completamente insostenible”

Sirva este episodio de la Historia de la Ciencia para ilustrar la tesis de Duhem-Quine: es imposible poner a prueba de forma aislada una hipótesis científica, porque un experimento empírico requiere asumir como ciertas una o más hipótesis auxiliares.

La tesis Duhem-Quine apunta a un carácter holístico del conocimiento, un torpedo en la línea de flotacion del glorioso buque empirista.  Pero esta cuestión tan espinosa bien merece ser tratada en un post aparte.

Finalmente y en otro orden de cosas comentar que el corte de la gráfica con el eje horizontal nos daría el trabajo de extracción pero no es un buen procedimiento para su medida. Es mucho mejor tantear la frecuencia de corte tal y como hicimos el otro día en el aula D1.4.

El efecto fotoeléctrico

10 Abril 2015 por juannor

Esta es la animación que usamos en clase para jugar con el efecto fotoeléctrico.

Fíjate que en la ecuación de la conservación de la energía, tal y como propuso Einstein,  se puede medir las tres cantidades de manera independiente: (1) la energía del fotón incidente (Planck), (2) el trabajo de extracción y (3) la energía cinética máxima de los fotoelectrones. La conservación de la energía exige que:  (1) = (2) + (3)

Asegúrate que sabes cómo medir cada una de ellas a través de la la animación. Recuerda como lo hice yo el otro día: (1) se hace a partir de la frecuencia (el color) de la luz incidente, (2) a partir de la frecuencia umbral y (3) a partir del potencial de frenado. Estas dos últimas hay que medirlas con mucho tiento y los errores serán inevitables.

Pon a prueba tu pulso y trata de descubrir el metal desconocido. ( Necesitarás una tabla de referencia con las frecuencias umbrales de los metales)

Y por cierto, ¿que papel juega la intensidad de la luz incidente en la emisión electrónica? ¿Ningún papel? Pues te equivocas.

Finalmente, piensa un poco y dime donde está escondida la “cuantización” en este experimento.


Photoelectric Effect

Click to Run

Leyes vs Modelos

10 Marzo 2015 por juannor

Cuando se empieza a estudiar la Ciencia, la primera impresión que uno recibe es que la tarea fundamental de los científicos es buscar las denominadas “leyes de la Naturaleza”: enunciados objetivos, breves, verdaderos y universales. Por ejemplo la ley de Boyle para un gas: Presión x Volumen = constante.

Pero el despliegue histórico de la Física y de la Química si algo nos ha enseñado es que la Ciencia en general es un objeto dialéctico, sacudida por Revoluciones que provocan dolorosas sustituciones en los paradigmas de los científicos y con cambios de métodos y criterios de racionalidad completamente impredecibles.

Por eso que no os extrañe el cambio tan profundo que la última Revolución Científica, la de principios de siglo pasado, provocó en los criterios de racionalidad científica. A mi modo de ver la cara más visible de ese cambio es la sustitución de la “ley de la Naturaleza” como punto de partida en la investigación científica por el de “modelo de la realidad“.

Un modelo, al igual  que una ley, aspira a representar una parte de la realidad. Pero a diferencia de la ley, que es estática e incapaz de evolucionar, el modelo aguanta el proceso dialéctico de la ciencia adaptándose a nuevos descubrimientos y nuevos cambios de perspectiva o metodológicos. Un ejemplo que seguro que recordáis es la evolución de los modelos atómicos desde Dalton hasta el modelo cuántico de Schrodinger o Heisemberg pasando por el de Rutherford o Bohr.

Así que en la actualidad nadie se preocupa ya por buscar leyes tal y como se hacía antes del siglo XX. Ahora toda ciencia aspira a ser una ciencia de modelos y se me viene a la cabeza la Economía que pretende representar la realidad económica basándose exclusivamente en modelos matemáticos abstractos.

Una advertencia. Las leyes y los modelos se inspiran en posiciones filosóficas diametralmente opuestas, lo que hace que sean incompatibles a la hora de fundamentar una teoría.   Las leyes pretenden ser universales y por lo tanto monistas. Los modelos pretenden dar cuenta de una porción de la realidad y por lo tanto son pluralistas. Las leyes pretenden ser verdaderas, por lo que una ley no puede ser contradecida por otra. Los modelos no aspiran a contarnos la verdad, por lo que pueden coexistir pacíficamente varios de ellos en un dominio concreto de la ciencia. Las leyes pretenden ser absolutas, válidas en todo tiempo y lugar. Los modelos tienen fecha de caducidad ya desde el mismo momento en que son propuestos.

¿Es posible fundamentar las ecuaciones de Maxwell?

20 Febrero 2015 por juannor

Maxwell murió con menos de cincuenta años al poco de publicar ” A Treatise on Electricity and Magnetism”, su magna obra donde propone un conjunto de ecuaciones que unifican nada menos que la electricidad, el magnetismo y la óptica. Estoy absolutamente convencido de que si hubiese vivido más años habría reescrito el Tretease de nuevo, de arriba a abajo. Y es que  su “deducción” de las ecuaciones unificadoras es, por decirlo suavemente, problemática.

Ya os conté la contribución de Heaviside y no voy a insistir sobre ello. Pero si añadiré un dato mas: Heaviside enseñó a Hertz  sus ecuaciones y el resultado es bien conocido: Hertz descubrió en 1888 las ondas electromagnéticas predichas por Maxwell y en menos de diez años Marconi ya había patentado un sistema de transmisión de datos mediante las ondas hertzianas.

Es importante destacar que primero fueron la ecuaciones y luego el descubrimiento de las ondas electromagnéticas. Y lo digo para que lo tengáis presente como contraejemplo cuando leáis por ahí que el “método científico” empieza por observar la Naturaleza y buscar leyes en ella y proponer hipótesis etc, etc. Este episodio de la Historia lo que nos enseña es que nunca puedes afirmar que has observado algo hasta que no dispongas de una teoría que lo corrobore.

Pero sigamos con la historia. Este descubrimiento de Hertz impresionó enormemente a los científicos del momento. Estaba claro que la propuesta de Heaviside, tomar las ecuaciones como único punto de partida para la comprensión de los fenómenos electromagnéticos, era perfectamente válida y que las ecuaciones, por decirlo de alguna manera, “tenían vida propia”. De hecho, en la actualidad, en los cursos universitarios de introducción a la Física se sigue la exposición de Heaviside.

Pero quiero que sepáis que es posible fundamentar las ecuaciones de Maxwell. El primer paso en ese sentido lo dio Einstein en 1905 y su punto de partida fue un análisis lógico de la ley de Lorentz. Como recordareis esa ley dice que la Ftotal = qE + q v x B.  Pues bien, Einstein se hace la siguiente pregunta ¿cuál sería la fuerza que aparece sobre esa partícula cargada medida desde el sistema de referencia ligado a la propia partícula?. La respuesta intuitiva de Einstein es que seria solamente una fuerza eléctrica (v valdría cero en ese sistema de referencia), por lo que la fuerza magnética es una quimera, una ilusión que solo aparece en nuestros sentidos al cambiar el sistema de referencia.

Leer más »

Puntual vs extenso y otra vez Maxwell.

19 Febrero 2015 por juannor

Las leyes físicas pueden escribirse circunscritas a un punto del espacio (en inglés “local”) o pueden escribirse de tal manera que se refieran a cantidades extensas, que involucren una longitud, superficie o volumen (en inglés “global”).

Voy con ejemplos: una magnitud de punto (local) es por ejemplo la fuerza. En un punto del espacio puede estar una partícula y sobre ella actuar una fuerza, que luego en conexión con el 2º Principio de Newton permite calcular la aceleración de esa particula justo en ese mismo punto donde se encuentra. Obviamente, el movimiento de los cuerpos se realiza a lo largo de la trayectoria que describen que, sin duda alguna, es una magnitud extensa. El paso del la magnitud puntual, la aceleración, a la magnitud extensa, la trayectoria, debe realizarse mediante la operación matemática de integración. Como recordaréis de los problemas de 1º de Bachillerato, el proceso se puede invertir y dada la trayectoria matematizada por el vector de posición puede derivarse éste dos veces para obtener la aceleración y la fuerza.

Quiero destacar un punto importante que se deduce del párrafo anterior:  la segunda ley de Newton está escrita de manera puntual. Desde un punto de vista matemático es una ecuación diferencial ordinaria de segundo orden.  Aclarando mas las cosas: lo de” ecuación” significa que puede ser resuelta para obtener una función conocida, lo de “diferencial de segundo orden” significa que hay que integrar dos veces para llegar a la trayectoria y lo de “ordinaria” es que solo hay una variable que es el tiempo. Ejemplo típico es el oscilador armónico cuyo solución vimos este curso. Lo repasamos: (1) la ecuación diferencial (2º ley)  queda:  -kx = md2x/dt2 (2) la solución es a(t) = - Aω2 sen(ωt+φ0) y (3) la doble integración queda x(t) =  A cos(ωt+φ0) donde ω2 = k/m

Una magnitud extensa (global) es por ejemplo el trabajo. No puede haber trabajo en un punto, el concepto en sí es absurdo. Cuando una fuerza se traslada a lo largo de una longitud, entonces es cuando se realiza trabajo. Así que la Termodinámica trata con magnitudes extensas y por eso sus Principios  son de una naturaleza física (¡ y matemática !) muy distinta a la segunda ley de Newton. Dicho de otra manera: el primer principio de la Termodinámica NO es una ecuación diferencial ordinaria de segundo orden.

Leer más »

Las cuatro ecuaciones de Maxwell (versión Heaviside)

11 Febrero 2015 por juannor

Sólo los especialistas pueden leer directamente el libro de Maxwell “Tretease on Electricity and Magnetism” publicado en 1873 en el que se matematiza la idea de campo físico original de Faraday. Y ello por dos razones principales. La primera: que no está escrito en notación vectorial. La segunda: que la fundamentación de las ecuaciones basada en un modelo mecánico del éter, a la luz de los conocimientos actuales, parece un cuento de hadas.

Por eso hoy en día la presentación de las ecuaciones de Maxwell sigue la pauta que Heaviside desarrolló unos pocos años después y que soslayan las dificultades que he señalado en el párrafo anterior.

En efecto, Heaviside (y Gibbs) inventaron la notación vectorial con un afán muy claro: simplificar las más de veinte ecuaciones que Maxwell introdujo en el “Tretease” . Daros cuenta que una ecuación vectorial “arrastra” tres ecuaciones escalares tras de si, una para cada eje del espacio. Dicho de otra manera: tres ecuaciones escalares pueden “comprimirse” en una sola ecuación vectorial. Por cierto, algunos de sus contemporáneos tacharon a Heaviside de “excéntrico” por su empeño en introducir el álgebra vectorial en la Física. En fin, ya veis que vale más el juicio de la Historia que el juicio de las personas.

Para simplificar aún más las ecuaciones de Maxwell, Heaviside reescribió la ley de Coulomb de manera que la constante que aparece en ella sea ahora k = 1/4πε. De esta manera el factor 4π no aparece en las ecuaciones y si lo hace la constante dieléctrica ε. Heaviside prefirió complicar la ley de Coulomb (cuya validez es muy limitada) para dejar las ecuaciones de Maxwell mas sencillas y “limpias”.

Esta operación de “limpieza” tiene mucho que ver con la errónea fundamentación que Maxwell dió en el Tretease a sus ecuaciones.  Heaviside pensaba que las ecuaciones tan “limpias y bellas” no necesitaban ninguna demostración, que merecían un status igual a los principios de Newton del movimiento, que el bonito cuento de hadas que Maxwell contaba en su obra para “deducir” sus ecuaciones era totalmente superfluo.

Desde luego, no todos los físicos pensaban igual que Heaviside y el primero de ellos era nada menos que Einstein. Pero el ataque a la fundamentación de las ecuaciones de Maxwell que hizo Einstein merece otro post, pues ese análisis crítico es nada menos que el germen de la Teoría de la Relatividad.

Heaviside reescribió las ecuaciones de manera que a la izquierda apareciera lo desconocido, lo que se quiere calcular: (i) la intensidad del campo eléctrico E y (ii) su hermana, la densidad de flujo eléctrico D (iii) la intensidad del campo magnético H  y (iv) su hermana la densidad de flujo magnético B. A la derecha de las ecuaciones aparece lo conocido, las fuentes de esos campos: (i’) la carga eléctrica en reposo Q, (ii’) la carga eléctrica en movimiento (o sea la intensidad I) y las variaciones (iii’) del flujo eléctrico y (iv’) del flujo magnético.  La relación entre las fuentes  (la causa) y los campos (el efecto) está “limpio”, Heaviside se las arregló para que no apareciese ninguna constante. Por cierto, si hacéis las cuentas veréis que salen cuatro ecuaciones con cuatro datos y con cuatro incógnitas, como debe ser.

Leer más »

La fuerza de Lorentz y el producto vectorial

9 Enero 2015 por juannor

Aunque por motivos didácticos la fuerza magnética se estudia separada de la eléctrica, en realidad siempre van juntas y se denomina fuerza de Lorentz a su suma:

Felectromagnética = q E + q (v x B)

 Podéis reconocer en esa expresión que la fuerza magnética vale:

Fmagnética =  q (v x B)

La cuestión matemática pertinente ahora es el cálculo del producto vectorial que exige el desarrollo del determinante:

 

En principio sabéis hacerlo por la regla de Sarrus o por el desarrollo de los elementos de la primera fila, pero en este post pretendo ahondar un poco más sobre el significado físico del producto vectorial y relacionarlo con dos teorías punteras de la Física Moderna: la Mecánica Cuántica y la Teoría de la Relatividad General.

Quiero destacar ante todo que ese “determinante” de más arriba  ni siquiera es un auténtico determinante, pues lo que hay dentro de él no es una matriz tan siquiera (fijaos que en su primera fila aparecen la base de vectores unitarios enteritos y las siguientes filas son otra cosa, son números, las componentes de la velocidad y el campo). En realidad la génesis histórica del producto vectorial no tiene nada que ver con los determinantes y la definición anterior no pasa de ser una regla nemotécnica para su cálculo.

Leer más »