Mostrando entradas con la etiqueta Física. Mostrar todas las entradas
Mostrando entradas con la etiqueta Física. Mostrar todas las entradas

Singularidad


En física se define una singularidad como una "superficie atrapada", una "hipersuperficie tridimensional no perteneciente al espacio-tiempo" o, más sencillamente "una región donde no se puede definir una función, convergiendo a valores infinitos".

Nuestro pensamiento, como una singularidad, quizás exista en ninguna parte o en ningún instante de tiempo. Existe la intención de confundirlo, desorientarlo o desvanecerlo. Solo en determinadas condiciones y con la ayuda de un "colisionador de conocimientos" podríamos llegar a aislarlo, estudiarlo y encauzarlo a la verdad. 

¿Qué es el pensamiento?, ¿qué es la consciencia?, ¿dónde convergen mente y materia?

Su conclusión personal ante esta reflexión tal vez no se halle en ningún sitio o no sea más que una reacción química de la mente... pero puede ser una posesión eterna, exquisita y singular. Deja volar tu imaginación, desarrolla tu mente. Piensa.


Somos quienes decidimos ser.

Grandes resultados de la Física: La teoría del Big Bang IV

Este será, previsiblemente, el último post sobre modelos de universo; en este apartado trataremos la gravedad cuántica y el modelo de colapsos y expansiones sin fin. Espero que os halla gustado y si queréis conocer más sobre el tema, sólo poned un comentario y profundizaré en los puntos que queráis. Muchas gracias por vuestras visitas.

La teoría de cuerdas no es la única solución a los problemas actuales de la física. Otro enfoque distinto es el de la Gravedad Cuántica de Bucles o LQG por sus siglas en inglés. El problema principal es que tenemos dos teorías que funcionan estupendamente bien cada una en su ámbito de acción, a saber, la mecánica cuántica describe el comportamiento del mundo de los átomos y las partículas y por otro lado tenemos la relatividad general la cual describe el Universo a su más grande escala.

El problema viene cuando tenemos que usar las dos para describir un mismo objeto, por ejemplo, para estudiar los agujeros negros. Dichos objetos son estrellas que han colapsado bajo la fuerza de su propia gravedad hasta convertirse en algo tremenda mente pequeño, más pequeño que las partículas elementales por lo que se necesita la mecánica cuántica para estudiarlo, pero al mismo tiempo su gravedad es tremendamente intensa por lo que necesitamos la relatividad general para estudiarla. Una situación similar se da cuando se pretende estudiar los primeros instantes del Universo tras el Big Bang. Intentar solventar los problemas que surgen al usar ambas teorías juntas es lo que se quiere conseguir mediante la teoría de cuerdas o la gravedad cuántica de bucles.



Al igual que sucede con la teoría de cuerdas, la gravedad cuántica de bucles también puede aplicarse a la cosmología y se obtiene un resultado parecido al propuesto por Gabriele Veneciano basándose en la teoría de cuerdas.

La base de la gravedad cuántica de bucles es que el espacio-tiempo no es continuo, sino discreto, aunque eso si, a escalas tremendamente pequeñas, del orden de la longitud de Planck, es decir unos 1,6161624 10-35 metros, resulta difícil, por no decir imposible, imaginarse una longitud tan pequeña, para captar lo minúscula que es esta longitud, un buen ejercicio puede ser escribirla sin usar la notación científica, con lo que nos queda tal y como sigue 0,0000000000000000000000000000000000161624 metros. Por así decirlo es como si en última instancia existieran “átomos” del espacio-tiempo. Si la gravedad cuántica de bucles hace una descripción acertada de la naturaleza del espacio-tiempo entonces las singularidades no pueden existir ya que existiría un tamaño mínimo el cual no se puede superar.


La aplicación a la cosmología de la gravedad cuántica de bucles permite indagar en los primeros instantes de nuestro Universo, ya que la supuesta singularidad donde todo comenzó no existiría. En cambio, lo que proponen es que todo nuestro Universo procede de un Universo anterior que sufrió un colapso, lo cual sólo puede suceder si la cantidad de masa es la suficiente como para parar la expansión y comenzar una contracción. Toda la masa de ese anterior Universo se iría concentrando en un espacio cada vez más pequeño, hasta que se alcanzara el tamaño mínimo posible en el cual sólo cabría una determinada cantidad de masa, alcanzado ese límite, al no poder concentrar más cantidad de masa, se produciría un “rebote”, es decir, todo el espacio-tiempo comprimido empezaría a expandirse de nuevo formándose nuestro universo durante ese proceso. Este proceso pudo haberse estado repitiendo indefinidamente.

Lo bueno del modelo del rebote es que difiere del modelo lambda-inflacionario con materia oscura fría, que es el que mejor describe nuestro Universo, en lo que a la producción de ondas gravitatorias, en los instantes “iniciales”, se refiere. Las cuales pueden ser detectadas de forma indirecta por la futura misión Planck como ya hemos comentado. Por lo que en principio podremos saber si el modelo es acertado o no.

La imagen que se nos suele presentar de la ciencia en los medios de comunicación, es la de una actividad fría y aburrida. Pero no es cierto, como hemos visto, desde la cosmología se realizan hipótesis sobre la existencia de otros universos, sobre la posibilidad de que el momento del Big Bang simplemente fuera una fase más en un universo que ha estado evolucionando desde siempre, o sobre la posibilidad de que nuestro Universo sea eterno y esté sometido a un periodo cíclico de contracción y expansión. ¿Fría y aburrida? Más bien la ciencia parece ser una empresa que demanda una curiosidad imposible de satisfacer y una imaginación fértil que permita imaginar lo inconcebible. Pero esto no basta, si nos conformáramos con esto tendríamos historias, cuentos y fabulas sobre como puede ser el Universo, para avanzar en nuestro conocimiento se necesita curiosidad e imaginación, sí, pero también escepticismo, conocimientos y unos profundos conocimientos matemáticos. Tenemos que someter a prueba nuestras hipótesis y teorías para saber que hay de cierto en las mismas, y eso es porque la ciencia es ambiciosa, no se conforma con imaginar como es el Universo sino que quiere saber cómo es y por qué es así, desde la más pequeña de las partículas hasta la más recóndita de las galaxias.

Grandes resultados de la Física: La teoría del Big Bang III

En el presente post continuaré destripando el modelo inflacionario y sus implicaciones, además, me gustaría hacer una breve introducción a la famosa teoría de cuerdas... ya que desde que el modelo inflacionario hizo su aparición la idea de que pueden existir otros universos además del nuestro no ha dejado de aparecer en la especulación cosmológica.


Lo cierto es que más que de teoría de cuerdas habría que hablar de hipótesis de cuerdas, ya que dicha “teoría” todavía no ha realizado predicciones que se puedan someter al juicio de los experimentos, aunque como recuerda el físico Brian Greene en sus libros El Universo Elegantey El tejido del Cosmos, la “teoría de cuerdas” si ha realizado postdicciones, es decir, durante el desarrollo de la misma ha dado valores correctos sobre valores que ya conocíamos, como por ejemplo, la carga del electrón.

La idea base de la teoría de cuerdas es que todas las partículas elementales, electrones, quarks, etc., no son puntuales como se piensa actualmente, sino que en realidad serían como unos finas cuerdas extremadamente pequeñas, dichas cuerdas estarían oscilando continuamente, y dependiendo de la frecuencia de dicha oscilación las propiedades de la partícula serían diferentes, dando así lugar a electrones, quarks, etc. La teoría de cuerdas no está exenta de controversia ya que para que este modelo de la realidad funcione necesita que existan como mínimo 11 dimensiones, diez de ellas espaciales y la undécima sería el tiempo. Debido a la complejidad creciente de dicha teoría, que cada vez incluye objetos más exotéricos como las branas, a que hasta el momento no ha realizado predicciones que puedan ser sometidas a experimentos para verificar su validez y que además algunos defensores de dicha teoría argumentan que debe ser cierta porque es matemáticamente bella, ha hecho que algunos físicos como Sheldon Glashow, Lee Smolin y Peter Woit, se muestren muy críticos con dicha teoría, incluso filósofos como Mario Bunge también se han mostrado críticos con la misma (sí, filósofos, macho).

No obstante la teoría de cuerdas se puede aplicar a la cosmología y como resultado ofrece respuestas interesantes y sugerentes.

Gabriele Veneciano, padre de la teoría de cuerdas y su equipo, han propuesto un modelo cosmológico en el cual el denominado Big Bang no sería el principio del universo. Por lo tanto, el tiempo no tendría su inicio en él. Su modelo, basado en la teoría de cuerdas, expone que el Universo ha existido desde siempre. La materia en él estaba muy enrarecida, y con el paso del tiempo dicha materia fue agrupándose poco a poco. En algunos lugares se llegó a acumular tanta materia que se formaron agujeros negros. La materia que caía en su interior quedaba para siempre separada del Universo.

Esto sucedía en todos los agujeros negros; así pues, el Universo primigenio quedaba dividido en fragmentos desconectados de él. Este proceso seguía inexorablemente y la materia continuaba acumulándose, aumentando así su densidad en el interior de dichos agujeros, pero según la teoría de cuerdas existe un límite para la densidad de materia que no puede ser rebasado. Cuando se alcanzó dicho límite la materia rebotó, comenzando así a expandirse. Ese momento sería lo que nosotros hemos denominado Big Bang. Según este modelo, nuestro universo, sería el interior de un agujero negro (ahí es nada).

Los físicos Paul J. Steinhardt y Neil Turok (no es el cazador de dinosaurios, ni mi pj del wow) han propuesto un modelo más extraño aún. Su modelo cosmológico parte de la idea de que nuestro universo es una membrana de varias dimensiones moviéndose a través de un espacio de más dimensiones. Para que la cosa no nos resulte tan extraña y difícil de digerir, reduzcamos el número de las dimensiones. Imaginen que nuestro universo y otros que pudieran existir sólo tienen dos dimensiones, es decir, que fueran planos. Serían como enormes folios moviéndose en el espacio de tres dimensiones, al que tan acostumbrados estamos.

Según este modelo, dos universos membranas (los folios en nuestro caso) se irían acercando, hasta que llegaran a chocar, ese choque sería lo que nosotros conocemos como Big Bang. A partir de ahí los universos membranas se irían separando y evolucionando cada uno por su lado. Pero llegaría un momento en el cual dejarían de alejarse y empezarían a acercarse de nuevo, comenzando así, un nuevo ciclo, el proceso continuaría indefinidamente. Sería indefinido en el tiempo tanto hacia el futuro como hacia el pasado, esto es, nunca hubo un principio.

Lo más interesante de todo esto es que los modelos cosmológicos que defienden estos dos grupos de científicos son falsables. Dicho de otro modo, que podemos comprobarlos. Ambos grupos, basándose en sus modelos cosmológicos, han hecho unas predicciones sobre la frecuencia e intensidad de las ondas gravitatorias que deberían ser detectadas. Las ondas gravitatorias son oscilaciones del espacio-tiempo. Serían algo parecido a las ondas que se desplazan por la superficie de un estanque cuando alguien tira una piedra en él. Si una onda gravitatoria alcanza un cuerpo, éste, al paso de la onda a través suyo, se estirará y se comprimirá.

La teoría predice la existencia de dichas ondas, aunque hasta el día de hoy no se ha detectado ninguna. Situación que puede cambiar con los observatorios como el LIGO y el VIRGO. Estos observatorios, junto con el satélite Planck, podrán, en opinión de Gabriele Veneciano, confirmar o desmentir estos modelos cosmológicos.

Uf, y ya para el próximo post, el último modelo de universo.

Grandes resultados de la Física: La teoría del Big Bang II

En el último post tratando este tema, concluimos que existe una especie de "ecuación de estado" que nos da la evolución del universo de forma similar a como pasa con los gases. Estudiando esta ecuación en el límite de tiempo cero, se encontró una temperatura de fondo del "gas universal", que resultó ser aproximadamente de 3 grados Kelvin.

Antes de continuar, recordemos que la temperatura no es más que la energía media que tienen las partículas en un recinto (si un conjunto de partículas en un volumen se mueven mucho y muy rápido, diremos que el conjunto está "caliente"). Pues bien, decíamos que esta temperatura de fondo debía ser necesariamente distinta de cero, pues debería de ser consistente con el principio de Heisemberg.

Si la temperatura del vacío fuera cero, las partículas estarían quietas. Sabríamos exactamente dónde están y qué velocidad llevan... ¡y esto es imposible!. Este punto acaba por relacionarnos la mecánica cuántica con la teoría del big bang (y ambas teorías son absolutamente ciertas). Más adelante veremos que existen inconsistencias entre ambas y que los físicos aún luchamos por una "teoría del todo".

En el post de hoy, a parte de resaltar la necesidad de esta temperatura de fondo distinta de cero, querría responder a la siguiente pregunta: ¿esta temperatura de fondo es la misma en todo el universo?, ¿por qué?.

Pues bien, esta temperatura de fondo debe ser necesariamente la misma en todo el universo (salvo fluctuaciones), de no ser así, existiría regiones privilegiadas en el universo (el universo no sería el mismo en todas direcciones). Pero sabemos que esto no pasa... ya que el esfuerzo cuando voy de Puerto Real a Sevilla es el mismo esfuerzo que cuando hago el camino inverso. Luego todas las direcciones son equivalentes. Si existiera una región más fría en el universo, nos sería más sencillo movernos hacia allí (iríamos a una zona menos energética).

Ahora empezamos con la parte dura del post: ¿por qué?. De acuerdo con las evidencias, nuestro modelo debe incluir un punto en el que el universo esté a la misma temperatura.

El principio, universo dominado por la radiación: Las altas temperaturas posteriores al big bang hacían imposible la presencia de materia, sólo podía existir radiación. Las fluctuaciones probabilísitcas podrían haber originado diferencias de temperatura en ese cocido de radiación...

Homogeneidad térmica: Para que se cumpla la condición de homogeneidad, el universo debió tener tiempo de homogeneizarse (es decir, de alguna forma los puntos más alejados del universo tenían que estar a la misma temperatura). La única forma de conseguir esto es que el universo fuera "tan pequeño" que a un rayo de luz le diera tiempo de viajar de un extremo al otro del universo. Así esos dos puntos podrían estar comunicados y, por lo tanto, a la misma temperatura. Pero si el universo era "tan pequeño", ¿cómo logró expandirse hasta la situación actual?

El modelo inflacionario: Una vez el universo es térmicamente homogéneo, ocurre un segundo big bang (este punto suele ser totalmente desconocido por la gente), que nos deja en la situación actual. Un universo homogéneo, isótropo y en expansión.


En la imagen que os dejo podéis ver un ejemplo gráfico de lo aquí expuesto. Aunque no cuento con ningún tipo de apoyo matemático, todas las conclusiones aquí mostradas son fruto del desarrollo matemático... salvo la hipótesis inflacionaria, que es una conclusión ad-hoc. Este punto es el que hace que la teoría se bifurque a las dos opciones que enumero:

- Universo sin fin y multiversos (teoría de cuerdas)
- Colapsos y expansiones sin fin

Estos puntos son absolutamente APASIONANTES, y los discutiré en posteriores entradas. A título personal, yo soy seguidor de la teoría de colapsos de Friedmann. Ya sé que os dejo con las ganas =P

Introducción a la mecánica cuántica V: El principio de Heisemberg

Continuando con la línea de posts divulgativos sobre fundamentos de mecánica cuántica, hoy vamos a hablar del principio de Heisemberg. Antes de desarrollar el cuerpo de este concepto, no está de más indicar que éste no es un principio como tal, sino una consecuencia de la descripción probabilística (escribí un post al respecto hace unos meses).

En la descripción probabilística, si quisiéramos conocer la posición de una partícula obtendríamos una distribución de probabilidad en forma de campana (encontraríamos la partícula con probabilidad máxima en el máximo de la campana). En el caso ideal, esta distribución sería justo una recta en el punto exacto en el que está la partícula (función delta de Dirac). Esta distribución en forma de campana se conoce como "Gaussiana", como el área encerrada bajo la curva debe ser la unidad (la partícula debe estar en algún lado), distintas posibilidades de encontrar la partícula tendrán distintas alturas y anchuras, debiendo conservarse el área encerrada:


A la anchura de la campana a media altura se le llama desviación estándar, y es muy representativa de este tipo de distribución porque encierra aproximadamente un 70% de la probabilidad de la campana. De hecho, las funciones gaussianas se expresan normalmente como función de este parámetro.

Por otro lado, sabemos que las ecuaciones de evolución de posición y velocidad están ligadas entre sí (de hecho una es la derivada de la otra). Si combinamos la relación entre las variables posición/velocidad y tenemos en cuenta las leyes probabilísticas que enunciábamos antes, obtenemos una relación entre las desviaciones estándar de ambas variables. Es decir, obtenemos una relación entre la anchura a media altura de la distribución de probabilidades para la posición, y la de la velocidad. De hecho, esta relación es una constante (la de Plank), y se conoce como principio de incertidumbre de Heisemberg (sin ser un principio, puesto que se puede deducir de las leyes de la mecánica cuántica).

Este resultado implica que es imposible conocer con exactitud ambas variables, y que conocer de forma exacta una de ellas, implica desconocer absolutamente la otra.

Sencillamente maravilloso.


Grandes resultados de la Física: La teoría del Big Bang

Continuando con mi línea de post divulgativos de física, le llega el turno a otro espectacular resultado de la física del S.XX; la teoría del big bang. En la licenciatura, esta teoría no se estudia como asignatura troncal ni optativa, se imparte por iniciativa propia del profesorado.

A grandes rasgos, todos sabemos el núcleo de la teoría: todo ese cuento de que el universo estuvo "comprimido", y una explosión es la que dio origen al universo... Con este post y sus previsibles continuaciones pretendo eliminar ciertas ideas erróneas y apuntar las grandes evidencias, implicaciones e incógnitas de esta teoría.

Para empezar, la teoría del big bang se fundamenta en las observaciones astronómicas realizadas a principios del S.XX por Edwin Hubble, quien observó un alejamiento paulatino de las galaxias... en todas direcciones. Este hecho experimental causó notable controversia en su momento, ya que todo el universo parecía alejarse de nosotros. El cómo se detectó este alejamiento galáctico está relacionado con el efecto Doppler (fenómeno que será carne de cañón en algún futuro post) y con el aparente corrimiento al azul/rojo de los elementos astronómicos.


Ocurre entonces que nos encontramos en un momento legendario de nuestra comprensión del universo, ya que por entonces empiezan a darse los primeros pasos en la teoría de la relatividad... y los físicos empiezan a plantearse la naturaleza del universo, su forma de moverse y su evolución en términos de la relatividad de Einstein. Dado que las distancias en el universo son realmente aterradoras, los efectos relativistas son muy notorios (además, desconocemos gran cantidad de cosas sobre la naturaleza del universo: materia oscura, agujeros negros, etc..).

Dado que la relatividad trabaja con el tiempo como una variable más, deberemos trabajar en el espacio 4D de Minkowsy, generalizando el concepto de matriz a Tensor, y encontrando sus componentes (construyendo el que se conoce como tensor de Riemann-Christoffel). En un primer modelo, se asume que el universo, a una distancia suficientemente grande es homogéneo e isótropo (es igual en todas direcciones y está homogéneamente distribuido). Por lo que se modela como un "gas relativista". El resultado es que se encuentra que el universo tiene una "métrica" fruto de los elementos del tensor anteriormente mencionado. La elección más simple de esta métrica nos lleva a la llamada "métrica de Schwarzchild", que nos da algo así como la ecuación de estado del universo (si recordáis, la ecuación del gas ideal era p·V=N·R·T... pues algo similar).

Esta ecuación de movimiento resulta ser función del tiempo, pudiendo estudiarse el límite cuando este tiende a 0, y encontrándose como resultado una singularidad matemática, pero no física. El resultado matemático estaba en perfecto acuerdo con el hecho experimental del distanciamiento aparente de las galaxias... pero además arrojaba un nuevo resultado: ¡el gas debía tener una cierta temperatura!. ¿Sería eso posible?. De acuerdo con la métrica anteriormente citada, se postuló una temperatura de vacío distinta de cero, un calor residual de 270,43ºC (2,72 Kelvin) aunque se suele redondear a 3 Kelvin (-270,15ºC)... lo sorprendente fue llevar una sonda al espacio y comprobar, estupefactos, que efectivamente el vacío no estaba a T=0... Este resultado además es necesario, porque está de acuerdo con el principio de incertidumbre de Heisemberg. Desarrollaremos esta, y más ideas, en futuros posts.

La fortaleza de la soledad

A modo de pequeña introducción al tema, me gustaría mencionar que los significativos avances en la electrónica y la microelectrónica, que han posibilitado la moderna tecnología; se fundamentan en los estudios llevados a cabo por los físicos a mediados del siglo pasado. Este trabajo, que fundamentalmente se centró en la física de microondas, tuvo su raíz en el esfuerzo bélico de los aliados durante la segunda guerra mundial. Una vez desarrollada toda la teoría de la física de microondas, y andando el tiempo, los científicos e ingenieros tradujeron esta labor de investigación en la moderna tecnología de circuitos integrados.

Más cercano en el tiempo está la investigación en óptica y optoelectrónica, que ha posibilitado desde la fibra óptica hasta un sin fin de aplicaciones del efecto cuántico de inversión de población (el láser, vamos).

En el presente post querría hablaros de los avances en física de materiales, que posiblemente desemboquen en nuevas tecnologías en un periodo de unos 20 o 30 años. Estas nuevas tecnologías estarán centradas en los recientes esfuerzos por sustituir la tecnología electrónica por la óptica (es decir, llevar a cabo todo el procesamiento de señales de forma óptica también). En la actualidad, se consigue transmisión de información (fibra óptica) pero no procesamiento. Las líneas actuales de investigación se centran en usar la física de los plasmones superficiales para no tener que procesar la información óptica traduciéndola a variables eléctricas. De hecho, los físicos de materiales trabajan en nuevas formas de almacenamiento de información (este es el hilo central de este post).

La información actual se almacena en discos duros, que usan dominios electromagnéticos para almacenar bits de información. En la actualidad, se trabaja con la posibilidad de almacenar la información en dominios ópticos de cristales (idealmente, un átomo almacenaría un bit). ¡Dentro de 20 o 30 años podríamos usar "cristales" en lugar de pen-drives!. ¿Alguno ha visto la fortaleza de la soledad de superman?, quizá esté más cerca de lo que pensamos...
La Física de hoy, es la tecnología de mañana.

Grandes resultados de la Física: La entropía II

Continuando con el hilo que empecé hace tiempo, hoy querría centrarme en las consecuencias más inmediatas. Empecemos por fijar ideas:

Permitir la conexión entre dos estados de equilibrio dio lugar al primer principio (el de el equilibrio termodinámico). Invertir esa conexión para formar un ciclo, al segundo principio. De entre todas las inversiones, cabe destacar aquella que recorre el mismo camino de ida, pero en sentido contrario. No se realiza entonces un ciclo, si no que se retorna a la situación inicial. En termodinámica, para que esto ocurra, es necesario realizar una doble idealización:

La primera, eliminando las imperfecciones debidas a la construcción o funcionamiento de los sistemas. La segunda, considerando todos los procesos infinitamente lentos, con lo que toda perturbación externa tiene tiempo para relajarse internamente; consiguiendo así una sucesión de estados de equilibrio intrínseco del sistema (se espera a que el sistema "se relaje"). Básicamente, de esto iba el post al que hago referencia.

Pues bien, definimos entonces un proceso reversible como aquel que tiene lugar de tal modo que, al finalizar el mismo (o en cualquiera de sus puntos) el sistema puede ser reintegrado a su estado inicial sin ocasionar cambios en el universo. Aquellos procesos que no cumplen esta definición (todos los reales) son procesos irreversibles. Por ejemplo:
1. Procesos mecánicos. El rozamiento de un líquido al agitarse, la exacción de un gas contra el vacío,…
2. Procesos térmicos. La relajación hacia el equilibrio de un sistema aislado al tratar de igualar la temperatura mediante flujos de calor.
3. Procesos másicos. Disoluciones.

La reversibilidad implica:

1. Condiciones mecánicas. Procesos cuasiestáticos.
2. Condiciones térmicas. Equilibrio mutuo.
3. Condiciones másicas. Sistemas de igual composición.

Esto quiere decir, básicamente, que podemos transformar todo el trabajo (fuerza ejercida por unidad de distancia) en calor, pero no al revés. Por eso podemos frenar una bici, perdiendo el trabajo de avance y calentando en el proceso los frenos... pero no es posible el proceso inverso: calentar los frenos y hacer que la bici se mueva. El invento de la máquina de vapor es una forma de transformar calor en trabajo mecánico, pero la transferencia de energía calorífica a energía mecánica no puede ser (por todo lo anterior) perfecta en un caso real. Aquí os dejo un pequeño esquema de las máquinas posibles (Q=calor, W=trabajo mecánico, T=temperatura).
Tras todo esto, se define por tanto una magnitud, la entropía, que dará cuenta del calor disipado por unidad de temperatura y que será, por tanto, mayor o igual que cero (en el mejor de los casos). Los físicos decimos que esta magnitud mide "el desorden" del sistema, ya que los sistemas físicos tienden a estados de mínima energía y máxima entropía.

Un ejemplo fue el que le puse a mi mujer hace unas semanas: supongamos que tengo una taza de café sobre una mesa. La taza puede caer de la mesa, romperse y el café enfriarse... ¡pero no es posible el proceso inverso!

Si estáis interesados en las máquinas que son posibles, la naturaleza de la entropía, los procesos físicos reales e ideales y toda la maquinaria que implica el segundo principio, he encontrado una página muy didáctica con un programa interactivo para jugar un rato. Además, desarrolla estas ideas con unas matemáticas que me he ahorrado aquí.

Los físicos en la segunda guerra mundial

Con este post pretendo hacer una pequeña reflexión sobre lo que fue la investigación científica (en particular, la llevada a cabo por los físicos) durante la segunda guerra mundial; tanto del lado del eje como de los aliados.

En los primeros años de la guerra, la Alemania nazi dedicó un importante esfuerzo a programas científicos con fines bélicos. Es bien sabido que la historia Alemana ha parido a la mayoría de grandes científicos de la historia (desde Leibnitz, hasta Helmhotz, Heisemberg, Einstein, Schrödinger...). El esfuerzo bélico de Alemania se centró especialmente en la potencialidad ofensiva, como cabía esperar, desarrollando fundamentalmente submarinos y misiles autopropulsados. Hasta entonces, los proyectiles se lanzaban de forma balística (disparados por un cañón). Alemania consiguió hacer despegar un cohete y hacerlo estrellarse en Londres, por vez primera en la historia... y os garantizo que despegar un cohete, estabilizarlo y dirigirlo hasta un objetivo, sin disponer de ordenadores ni circuitería integrada, no era una tarea nada fácil.

Por su lado, la alianza puso a sus "pata negra" a trabajar en sistemas defensivos. La mayoría de esos científicos eran físicos que basaban sus trabajos en algunas conclusiones del británico Maxwell (quien nos legó sus famosas ecuaciones). Estos "hijos de Maxwell" desarrollaron la teoría de microondas, y la posibilidad de orientar campos electromagnéticos por guías de onda (tuberías, vaya). Esta teoría posibilitó el desarrollo del radar, con lo que los británicos sabían exactamente cuándo y donde atacaría la aviación alemana. Muchos aseguran que el radar impidió que el eje se hiciera con Inglaterra. Cuando los alemanes derribaban aviones ingleses, sólo encontraban unos pequeños circuitos compuestos fundamentalmente de tuberías (y, evidentemente, no sabían de qué demonios se trataba).

El eje intentó igualmente desarrollar la bomba atómica, pero su negación a asumir los principios de la relatividad (Einstein era judío de nacimiento) llevó a un punto muerto la investigación. Por otro lado, una vez finalizada la guerra, los americanos se apropiaron de la tecnología de misiles alemana, y de los mejores científicos (lo que permitió el impresionante desarrollo tecnológico de los EEUU). Recordemos que la bomba H se "dejó caer" sobre Hiroshima y Nagasaky desde un avión... Los americanos no disponían de misiles. Este primer adelanto hizo que los americanos pudieran competir contra los soviéticos en la guerra fría... pero eso ya es otra historia.

Tú serás mi constante (II)

En el último post, reflexionábamos sobre las constantes universales, sobre la reescalabilidad de las leyes físicas y sobre cuales son las constantes verdaderas. Llegamos a la conclusión de que realmente sólo hay dos constantes no reescalables, que además deben ser medida de alguna propiedad intrínseca de nuestro universo. En el presente post, pretendo desarrollar esta última idea.

Sobre c: Muchas veces hemos escuchado que la velocidad de la luz es una constante universal, y que no puede superarse esta velocidad. Voy a intentar ahondar en esta idea, prescindiendo de las matemáticas.

Supongamos un avión caza, que viaja a gran velocidad por el aire; superada cierta velocidad, decimos que “rompe la barrera del sonido”, esto es, su velocidad de vuelo es superior a la de propagación de ondas de presión en ese medio (las ondas de presión son las ondas que se transmiten de forma natural en el aire, las ondas que se transmiten de forma natural en el agua serían las olas del mar). Similarmente, existe una velocidad máxima con las que las perturbaciones en general pueden propagarse en el vacío… es como si nuestro universo tuviera una “impedancia característica” y viajar por encima de esa velocidad implicaría “romper la barrera de la luz”. Pero claro, eso no es posible (a parte de por innumerable cantidad de leyes físicas)… ¡y no es posible, sencillamente porque nuestro universo no admite velocidades mayores!

Sobre h: Esta es conocida como "constante de Plank", e implica la cuantización de la energía (la energía sólo se emite o absorbe en múltiplos de esta magnitud). Dicho así, no parece nada espectacular... pero ¿acaso la masa no es más que una forma de energía?... ahí queda eso...


Las conclusiones más inmediatas que se extraen son las de una "geometría subyacente" en el espaciotiempo, que conforma una especie de tejido sobre el que ocurren los sucesos que la física intenta explicar. ¿Qué hay más allá de este tejido?, ¿qué implica una ruptura de este tejido?. Las respuestas a estas preguntas se encuentran en la poco desarrollada física de los agujeros negros; que vienen a ser desgarros en ese tejido espaciotemporal.

Conocimiento teórico Vs Conocimiento experimental

Referirse al método científico es referirse al conjunto de tácticas empleadas para construir el conocimiento, y no existe el método definitivo. No obstante, y a raíz de un pequeño debate que mantuve con cierto estudiante de medicina, reflexioné sobre los tipos de conocimientos y llegué a unas conclusiones que ahora expongo.

Como ya dije, no hay un método único y verdadero, sólo hay distintas formas de construir el conocimiento, y todas ellas son válidas. Mi pregunta radicaba, en segundo orden, en cómo de exacto es ese conocimiento, en la "calidad científica", que no humana, de ese conocimiento. Siendo mi contertulio estudiante de medicina (donde la mayor parte de los experimentos son experimentales), él defendía la bondad de su método; cosa que no pretendo discutir. Pero como no quiero meterme en camisas de once varas, sólo hablaré del universo que es conocido para mí; en física existen dos tipos básicos de físicos: los teóricos y los experimentales (aunque nunca un físico es "puro"). Los físicos experimentales elaboran teorías matemáticas para explicar los resultados de un experimento. Los teóricos, por contra, llegan a conclusiones matemáticas que luego intentan reproducir (ya podéis adivinar por qué me hice teórico).

Siendo la única ciencia exacta la matemática, todo conocimiento que no sea reproducible en términos matemáticos es inexacto y, por lo tanto, falible (por eso dos cerebros iguales pueden tener, o no, alzheimer, porque su conocimiento no es matemático). Yo defiendo la matematización de las ciencias biológicas, la extensión de la química (que no es más que física fenomenológica) a las ramas de la biología.

La cuestión de fondo es: ¿Hasta donde puede resolver un físico?.

Pues, tristemente, hasta no muy lejos. En física aún no hemos logrado resolver el problema de los tres cuerpos; ni hemos sido capaces de resolver la ecuación de Schrödinger para átomos más complejos que el de Helio. La matematización de la biología debe llegar, necesariamente, desde la base de esta (un compañero informático hablaba del ábaco como base de la computación del conocimiento). Es, por tanto, necesario resolver matemáticamente al menos hasta el átomo de carbono, para poder matematizar las proteínas, etc, etc...

En física, los elementos más pesados se resuelven mediante métodos aproximados que son más o menos fiables hasta cierto rango; pues la complejidad de las ecuaciones a resolver es absolutamente inabordable. Se usan por tanto, métodos iterativos que requieren de ordenadores con suficiente potencia de gestión; potencia que siempre suele quedar corta. ¿Acaso no existen ordenadores capaces de resolver esas ecuaciones?. Pues no, no hasta hoy. ¿Cual es el límite a esa resolubilidad?. Hoy en día, la cota superior de rendimiento de los ordenadores viene dada por su funcionamiento a altas frecuencias (a mayor frecuencia, mayor capacidad de resolución), los efectos cuánticos que aparecen y los problemas derivados de la propagación de ondas electromagnéticas guiadas por según qué material.

Las alternativas pasan por usar semiconductores de diamante (basados en C) con propiedades muy similares a las del Si (de hecho, si la suerte me acompaña, será el tema de mi tesis) para cambiar la base sobre la que se fabrican los ordenadores de alta potencia.

¿Mi conclusión?: ¡Hacen falta más físicos!
  • físicos que se encarguen de indagar en las resoluciones exactas de elementos cada vez más pesados
  • físicos que estudien los fenómenos que se producen a escalas de microondas
  • ...que diseñen nuevos materiales
  • ...que modelen la interacción entre moléculas cada vez más complejas
Para matematizar la biología es necesario un tremendo esfuerzo científico, dada la dificultad de cálculo añadida. Pero, en la historia, se han superado barreras del conocimiento más complicadas. Si la resolución de los átomos de H y He nos mostraron la fisión y la fusión nuclear; si el estudio de los materiales nos proporcionó el efecto fotoeléctrico, y el láser (sin el que no podríamos leer discos duros ni existiría la electrónica moderna)... ¿qué nuevos fenómenos físicos puede desvelar un conocimiento cada vez más profundo de la materia?.

Por último: ¿hacen hoy los físicos algo relacionado con todo esto?. Pues más de lo que creía:
  • ¡La construcción del LHC permitirá disparar partículas más energéticas a blancos más pesados!
  • La teoría de la física de microondas lleva elaborada ya muchos años, a la espera de que la física de materiales sea capaz de matematizar estructuras más complejas (os sorprenderían los avances en física de la materia condensada).
Yo soy particularmente optimista en este caso. Creo que el trabajo de la comunidad científica mundial por dar a luz al LHC tendrá sus recompensas en un periodo de algunas décadas, cuando por fin logremos modelar átomos complejos. ¿Viviré para ver la matematización de la proteína?

Una nota más: durante mi estancia en CITIUS, tuve la oportunidad de manipular un microscopio AFM/STM (microscopio de fuerza atómica/efecto túnel). Hoy ya podemos "ver átomos", y observar su distribución:

Introducción a la mecánica cuántica IV: El efecto túnel

Continuando con la línea de posts divulgativos, hoy vamos a tratar un novedoso aspecto de la mecánica cuántica. Para ello es necesario familiarizarnos antes con la idea de "potencial". Muy a menudo hablamos de que tal o cual persona es "un asesino en potencia" (bueno, esto último no muy a menudo xD); cuando decimos esto, nos estamos refiriendo a que esa persona tiene la potencialidad de realizar un asesinato (lo lleve a cabo o no).

De igual manera, decimos que los sistemas físicos tienen la capacidad de realizar un trabajo (una fuerza) en potencia. Como símil, podemos pensar en el campo gravitatorio, cuanto más alto esté una mas, con más fuerza caerá y, por tanto, mayor es su "potencialidad". Es decir, en el caso del campo gravitatorio, un cuerpo tiene más energía potencial cuanto más alto esté.

Matemáticamente (que es como se deben hacer las cosas), decimos que las fuerzas derivan de un potencial y, por comodidad, solemos trabajar con el campo madre, el potencial. Creamos así campos de potencial para las distintas fuerzas (la gravitatoria, la electromagnética, la nuclear fuerte, etc...). Para familiarizarnos un poco más con la idea de potencial, podemos imaginar que nos tiramos de cabeza contra una pared. En tal caso, no sufriremos fuerza hasta que, de repente, nos chocamos contra la susodicha pared. Del experimento extraemos que el potencial será nulo en todo instante, hasta el contacto con la pared (y también extraemos un chichón). El dibujo del potencial sería el que acompaña a estas líneas; nosotros estaríamos en el interior, correríamos y sentiríamos, de golpe, una energía infinita.
Bien... Supongamos ahora que nuestro pozo de potencial no es de paredes infinitas, si no que nos encontramos con un pozo de una cierta altura. Esto es lo que conocemos como un "bache"; si llevamos suficiente energía y el bache es lo suficientemente pequeño, ni lo notamos. Si por contra el tamaño del bache es comparable a nosotros, lo vemos como una especie de pared (podríamos intentar saltarnos si lleváramos suficiente energía). Además, si el bache es lo suficientemente elevado, estaremos frente a un muro como el de antes.

Con esta sencilla idea en la cabeza, vamos a ver qué ocurre en el mundo cuántico:

Las trayectorias de los entes cuánticos están descritas por una cantidad conocida como "función de onda", que suele ser función de la posición (r) y del tiempo (t); llamaremos a esta cantidad Ψ. Esta cantidad no tiene un sentido físico inmediato (no... no son exactamente las trayectorias). Y esto se debe a que las funciones Ψ son, en general, complejas (es decir, no son cantidades reales, sino con componente imaginaria). Por lo tanto, la cantidad con verdadero sentido físico es su cuadrado (su cuadrado complejo), cantidad que se denota como |Ψ|, y que refleja la probabilidad de encontrar al ente cuántico en una posición (x) y tiempo (t) determinados.

Por lo tanto, lo que tendremos es una distribución de probabilidad cuyo cuadrado nos muestra la probabilidad de encontrar al ente en un lugar y un tiempo. En la naturaleza, y en los casos reales (en los que no existen paredes infinitas), estas distribuciones de probabilidad son continuas y derivables. Esto quiere decir que no sufren caídas bruscas, pueden caer rápidamente, pero no "instantáneamente". Esto es algo que no nos pasa a nosotros (que no somos objetos cuánticos). Nuestra probabilidad de estar dentro del muro cuando nos tiramos contra él es cero; ¡pero no es así para un ente cuántico!. ¡Esta revolucionaria afirmación quiere decir que un ente cuántico puede atravesar una pared de potencial!


Como vemos en la imagen anterior, la probabilidad de encontrar a la partícula al otro lado del muro decae muy rápido, pero no se anula. Este fenómeno es conocido como "efecto túnel", y está detrás de la práctica totalidad de la industria electrónica moderna.


Introducción a la mecánica cuántica III: Dimensiones

En el último post, dejábamos la puerta abierta a la posibilidad de dimensiones adicionales (que le son accesibles a las partículas cuánticas, pero que nos son inaccesibles a nosotros). Con este artificio se pretende explicar la posibilidad de que un electrón esté en dos lugares a la vez (como pasaba en la doble rendija).

Cuando estudiamos mecánica cuántica tenemos que tener en cuenta que la física no es más que un modelo matemático de la realidad. Hecho por el hombre. La realidad en sí es incognoscible, sólo podemos intentar estudiarla usando nuestro pensamiento... algunos pretenden ver aquí a Dios; a lo que yo respondo: ¿si existe Dios, para qué narices voy a estudiar mecánica cuántica?. Pero la estudio. Y funciona.

La posibilidad multidimensional es una técnica matemática que simplifica de sobremanera el cálculo. En el caso de la relatividad, se habla del tiempo como una cuarta dimensión. Cuando hablamos de dimensiones, no tienen por qué ser "dimensiones espaciales"; porque nuestra concepción del espacio está limitada a lo que nuestros sentidos pueden percibir... y, aunque esto parece ya más un post de metafísica, esa es la realidad. Y después de todo, la buena metafísica es, de echo, física.

Un ejemplo de lo que acabo de comentar se da en el siguiente video:


Llegado a este punto, procedo a explicar el propósito de este post: las dimensiones adicionales son un modelo matemático; y no hay que ser tan sensacionalista a la hora de hablar sobre dimensiones, teleportación, universos paralelos... El camino correcto es el estudio de las posibilidades dentro de las leyes conocidas de que se den estos fenómenos. Hoy por hoy, la física no prohibe la existencia de más dimensiones. Pero sí exige que estas estén muy curvadas (esto, para mucho más adelante), lo que imposibilita la presencia de entes distintos de los cuánticos.

En otras palabras, el comecocos del video no podría "pasar a la tercera dimensión". Es por eso mismo que nosotros no podemos acceder a las dimensiones a las que sí tiene acceso un electrón... porque nosotros no somos entes cuánticos.

Introducción a la mecánica cuántica II: La dualidad onda/corpúsculo

Visto que a mi niña le gustó el post anterior, me he animado a publicar el siguiente pasito en la teoría cuántica. Este punto es bien difícil de entender... de hecho, cuando se le pregunta a un físico ¿qué es la mecánica cuántica?, solemos responder que es un sistema para ligar con becarias que creen que la entendemos (no es mi caso, yo estoy casado).

Como adelantamos en el post anterior, la mecánica cuántica es probabilística y evalúa todos los posibles estados de un sistema; todos a la vez. El caso extremo de esta afirmación es la doble rendija (por cierto, es el primer chiste de TBBT). Supongamos que "disparamos" una partícula contra una doble rendija... de acuerdo con las leyes de la cuántica la partícula puede atravesar una rendija, la otra, ninguna... o las dos a la vez.

Y punto.

Además, y como dijimos también, el hecho de medir nos altera la realidad bajo estudio. En el siguiente video se ilustra perfectamente lo que explico:


Esto parece dejar la posibilidad abierta a la existencia de "universos paralelos", "presencia del mismo objeto en dos sitios a la vez"... y ese tipo de chorradas.

Y aquí vengo yo a desmontar el entuerto.

La dualidad onda/corpúsculo es real, tanto es así que a los fotones los caracterizamos de una u otra forma según nos simplifique más o menos el problema. La longitud de onda asociada a una partícula es proporcional a la constante de Planck. Este parámetro, que llamaremos h, es ridículamente pequeño: h = 6.26·10^(-34) J·s Entendiendo de órdenes de magnitud, podemos ver que esto es una auténtica porquería de constante. Planck estableció la relación:

m·v = p = h/λ

m=masa de la partícula
v=velocidad
p=cantidad de movimiento (m·v)
λ=longitud de onda

Como vemos, operando: λ=h/(m·v) Si h es pequeñísima, y además la dividimos por la masa del objeto... la longitud de onda asociada a un objeto de peso un poco superior al electrón se hace absolutamente despreciable. De hecho, los objetos "masivos" (entendiendo por masivo un átomo, digamos) tienen un comportamiento ondulatorio despreciable.

A escala humana, esta afirmación hace que el comportamiento ondulatorio de las personas sea indetectable. Es decir; no pueden existir universos paralelos ni personas idénticas en lugares distintos... o, de existir, tienen una probabilidad de existencia tan ridícula que queda anulada frente a efectos cuánticos de orden superior.

Ejemplo de memez:


Nota a los señores de REDES: pueden existir más dimensiones que nos sean imperceptibles (aunque tampoco para ponerse en 11, como alguno asegura). Eso no implica la existencia de universos paralelos. Hmm... ya tengo material para otro post =)

Introducción a la mecánica cuántica I: La descripción probabilística

Bueno, vista la cantidad de sandeces que se dicen sobre la mecánica cuántica (en gran medida, por desconocimiento, y en otras por fanfarronería) me he tomado el pequeño objetivo de hacer una linea de posts divulgativos. Aquí tenéis la primera entrega.

La mecánica cuántica tiene dos palabras, aunque suene a estupidez... "mecánica", que hace referencia al modelaje matemático de la dinámica (estado de movimiento) de los entes bajo estudio; y "cuántica", que indica que todas las cantidades intrínsecas a esta disciplina serán múltiplos de una cantidad (se dice que las cantidades están cuantizadas). En primer lugar, la mecánica cuántica renuncia a conocer el estado de movimiento exacto de los entes (es decir, renuncia a conocer posición y velocidad exacta de una partícula) para, en su lugar, hacer una descripción probabilísitica del estado de movimiento de la partícula. Esto, que aparentemente es un mal punto de partida, nos permite solventar ciertas dificultades que veremos más adelante.

La descripción probabilística de un estado (sea o no de movimiento) debe tener en cuenta todos los posibles ensayos de ese estado, modulados por su probabilidad correspondiente. El desempate entre todas las posibilidades se lleva a cabo en el momento de medir. Luego medir altera forzosamente el ente bajo estudio, alterando el resultado y siendo, por tanto, imposible conocer la naturaleza exacta del universo (por el hecho de que lo alteramos al estudiarlo).

Un ejemplo para esto es el "gato de Schröedinger", que es un experimento mental que propone a un gato, encerrado en una caja, con un frasco lleno de veneno. El gato puede o no beber de este frasco, pudiendo estar vivo o muerto (y tendremos que considerar ambas posibilidades a la vez, aunque sabemos que esto duele al pensamiento). Un ejemplo de modificación de la realidad sería que al abrir la caja, rompiéramos el frasco y matáramos al pobre gato... en cuyo caso habría una parte de la realidad (gato vivo) que se nos escapa. Esta y otras "paradojas" ocurren muy a menudo en esta emocionante disciplina física.

Por cierto, y para dejarnos de tonterías, una paradoja es, según la RAE: Idea extraña u opuesta a la común opinión y sentir de las personas. Una paradoja NO ES una imposibilidad física ni un vacío en las leyes del universo.

Grandes resultados de la Física: Dinámica del caos


La Dinámica, como es sabido, es la parte de la Física que estudia el movimiento. Por sistemas dinámicos entenderemos sistemas físicos cuyas propiedades varían con el tiempo, y por lo general los estudiaremos mediante sistemas de ecuaciones diferenciales del tipo: dx/dt=f(x,y,z)

La resolución de sistemas como el anterior a veces no posible por los métodos generales lo que hace recurrir a métodos numéricos y gráficos que conducen a la posiblidad de deteriminar en el espacio fásico de las x,y, z trayectorias fásicas, conformando un retrato fásico del sistema, cada uno de cuyos puntos representan un estado del mismo. El flujo de trayectorias fásicas se asemeja al comportamiento de un fluído.

Los puntos donde eventualmente convergen las trayectorias fásicas se denominan puntos fijos estables o atractores y constituyen estados estacionarios para los cuales los primeros miembros de la ecuación anterior se hacen cero. También son iguales a cero los primeros miembros de estas ecuaciones para los puntos fijos inestables, esto es, de donde salen trayectorias fásicas (los cuales se denominan focos). En algunos casos las trayectorias que salen de los focos se enrrollan en órbitas cerradas las cuales pueden constituir cíclos límites característicos de los procesos oscilatorios.

Si proyectamos este comportamiento en uno de los planos (el plano yz, por ejemplo) obtenemos un resultado como el siguiente:


...se observa la trayectoria que partiendo del origen descrbe un número indeterminado de espirales a un lado del gráfico, para pasar al otro lado describiendo espirales en parecida forma, pasos que ejecuta alternativamente, caóticamante, semejando el conjunto las alas de una mariposa. (Advertimos que no es a esto a lo que se refiere la célebre metáfora del caos:"el aleteo de una mariposa en San Francisco es capaz de provocar un huracán en Beiguin”). Es engañosa la aparente unión de las alas de la mariposa sobre el eje z, en realidad las espirales están en planos distintos sumamente cercanos, adoptando una regularidad fractal (pronto abriré un post de fractales).

Se le ha llamado caos a la situación que presenta un sistema dinámico cuando por ligeros cambios en las condiciones iniciales, a partir de ciertos valores de las variables, éstos cambian considerablemente sin presentar ni periodicidad ni aparente orden... Pero la regularidad fractálica nos ayuda a entender un cierto orden en el caos.



Conocimiento peligroso (Dangerous Knowledge)

Aquí os dejo un interesante documental dividido en dos entregas de 45 minutos. Este documental explora a modo de homenaje las vidas de cuatro científicos: Cantor, Gödel, Turing y Boltzmann. Estos 4 científicos se adelantaron a su tiempo, explorando terrenos peligrosos del conocimiento. Además, tuvieron un trágico final en el ocaso de sus vidas.
  • Georg Cantor exploró el infinito y todas sus paradojas, dejando un gran importante legado a la matemática. Padeció una enfermedad maníaco-depresiva y acabó muriendo en una una clínica psiquiátrica.
  • Ludwig Boltzmann, pionero de la física estadística, exploró la relación entre el azar y los átomos, lo que le lllevó a enunciar fórmula de la entropía (S = k log Ω) que está grabada en su lápida. Se ahorcó mientras intentaba tomarse unas vacaciones familiares.
  • Kurt Gödel, el lógico que formuló el teorema de incompletitud en el campo de la lógica, algo que viene a explicar las limitaciones intrínsecas del conocimiento humano. Con signos depresión y paranoia decidió dejar de comer pensando que había una conspiración contra él.
  • Alan Turing, el pionero de la computación, que no solo rompió los códigos de la máquina Enigma durante la II Guerra Mundial sino que sentó las bases teóricas de la programación y los ordenadores modernos, además de explorar la Inteligencia Artificial. Procesado y condenado por ser homosexual fue sometido a tratamiento médico de la época para «curarle», después se suicidó mordiendo una manzana con cianuro.

En la web está disponible la versión subtitulada en español, pero sólo para descarga (al menos yo no la he encontrado en reproducción online, si la encontráis, por favor, pasad el link). El video que os dejo es de youtube y está dividido en 10 partes, es sencillo seguirle la pista a partir de esta primera entrega.

El bosón de Higgs, Dios y el mundo de los "entendidos"

El bosón de Higgs es, según Iker Jiménez, "el punto de inicio de todo lo que conocemos. Muchos dicen que es Dios. Y me estoy imaginando la fotografía, si es que se consigue ver esa partícula, en las portadas de libros y periódicos diciendo: «Éste es Dios»". Ésta y otras chorradas trufaron el domingo el primer segmento de Cuarto milenio, dedicado al Gran Colisionador de Hadrones (LHC), donde los físicos quieren recrear las condiciones del Universo poco después del Big Bang y detectar el bosón de Higgs, que se conoce como la partícula de Dios y cuya existencia ha sido predicha teóricamente por el modelo estándar de la física de partículas. El bosón de Higgs no se ha visto todavía y de no existir obligaría a reformular ese área de conocimiento.

La divina presentación de Jiménez dio inicio a un sinfín de estupideces, por parte de su reportero Luis Álvarez y del novelista Javier Sierra, que José Manuel Nieves, asesor científico del programa, no corrigió en ningún momento. Y eso que los disparates fueron de los de hacer época. Así, Álvarez dijo, desde el LHC, que "la cuestión es si el Vaticano va a opinar" sobre los experimentos que se van a hacer allí "y, sobre todo, si la Humanidad está preparada para contemplar el rostro de Dios por primera vez". El pobre no entiende que llamar al bosón de Higgs la partícula de Dios es sólo una forma de hablar, se lo toma literalmente y empieza a desbarrar.

Ya en el estudio, Álvarez seguía en la montaña rusa del delirio: "Es un privilegio estar ahí, en Ginebra, en esta llamada catedral de la ciencia del siglo XXI ante el nacimiento de una nueva religión". Amén. Sierra apostillaba: "Estaríamos hablando casi de la célula madre del Universo. A partir de ese bosón de Higgs, de esa partícula, aparecería la materia del Universo. Es decir, todo saldría de ahí. No solamente la materia que vemos, sino también la materia que no vemos. Hay un gran misterio al que también se enfrentan todas estas investigaciones, que es la materia oscura y la energía oscura…". Y Jiménez, que sacó a colación al LHC como la máquina del Juicio Final, sentenciaba: "Todo lo fundamental es casi desconocido".

Se lo confieso: no lo vi en directo, sino que me alertó del espectáculo el periodista Julio Arrieta. "No sé qué causaba más estupefacción, que Cuarto milenio tenga acceso al LHC -se ve que allí dejan entrar a cualquiera- o comprobar que un grupo personas puede hablar en televisión sobre algo de lo que no tiene ni la más remota idea con un desparpajo alucinante. Daban por hecho que bosón de Higgs es igual a la partícula de Dios es igual a Dios, sin que nadie ni remotamente sugiriera que el nombre es metafórico y no muy acertado", me dijo. Tras ver esa parte del programa, entiendo y comparto la estupefacción de Arrieta. ¿Y ustedes? Vean y juzguen.

En fin; es lo que tienen la física de partículas, la Mecánica Cuántica y la Relatividad: que se han convertido en el refugio de charlatanes debido a su dificultad, y a que la inmensa mayoría de personas no tiene acceso al aparato matemático que está detrás. Nos tenemos que conformar a su "traducción" del lenguaje matemático al lenguaje oral o escrito, y entonces se producen las aberraciones que se convierten en el balón de oxígeno de Íkeres y Ramthas, y dan lugar a bodrios como este, donde todo es posible.

Y eso cuando no sale un verdadero físico que comulgue con ideas religiosas, y comience a usar sus conocimientos para justificar sus creencias.

Patético