viernes, 5 de agosto de 2022

¿Existe una realidad objetiva? El dilema de la indeterminación cuántica

A raíz del post del otro día sobre Roger Penrose hoy me parece conveniente volver a tratar uno de los dilemas filosóficos, y por ende científicos, más importantes de los últimos 2.500 años: 

¿Existe una realidad objetiva y por tanto, común a todos? 

La pasión por la verdad, y de rebote por la ciencia, como seña identitaria de occidente surgió a raíz de tamaño dilema. Heráclito lo borda cuando dice: 

"Lo inteligente es vivir siguiendo lo que es común a todos. Y el logos es lo común. Sin embargo la mayoría vive sin atender lo que nos es a todos común, sino en un sueño propio."

Nota: No hace mucho colgué "verdades objetivas y el arte de tratar a las mujeres" como complemento de éste.

¿Existe lo común a todos? 

Este antiguo dilema nos ha llevado a un montón de batallas intelectuales a través de las cuales nos hemos ido perfeccionando, y creciendo, creando incluso un método a través del cual disciplinarnos a fin de comprender  y discernir qué es común, objetivo, cierto, y qué es subjetivo, ilusorio y, acaso, engañoso. 

No ha sido fácil; hemos tenido que inventarnos muchas cosas nuevas, como por ejemplo toda una artillería de instrumentos y sistemas de medida. Y no pocas veces nos hemos levantado de fracasos estrepitosos, aunque fuera ranqueando y a la pata coja.  

Precisamente, hoy parece que vivimos uno de estos grandes fracasos, del cual se nutre el posmodernismo actual. 

Sí, hoy dudamos: ¿podemos seguir siendo pensadores modernos como por ejemplo se empeñaba aún hace un siglo Einstein? 

Honestamente no. Sin embargo, que tampoco nos tomen por postmodernos. 

¿Qué somos? 

Hay algo de profundamente conservador en nosotros, de sumo respeto por el alcance logrado por los antiguos. Y a la vez también hay algo de innovador, inclasificable e incierto en nosotros que sólo el tiempo dirá cómo terminará tomando cuerpo. Somos conflictivos. 

Los albores de la ciencia moderna

La ciencia moderna nace con la creación de toda una artillería de instrumentos de medida. Galileo Galilei fue el gran artífice de esta nueva ciencia instrumental que ponía en entredicho toda especulación ideológica, la cual, además, se hacía pasar por filosofía y dominó la civilización occidental durante siglos bajo el rimbombante nombre de "religión cristiana". 

A los ideólogos de la antigüedad nunca les faltó astucia, capacidad de engaño y demagogia. Y a los de hoy, tampoco.

Sí, tuvo que llegar Galileo para que se inventara  un cronómetro y con él se empezara a representar el movimiento de cuerpos utilizando velocidades "objetivas", es decir medibles con un sistema suficientemente regular y ajeno a las notables variaciones perceptivas de los sujetos que los observan ¡Hasta la fecha se usaba, mano en pecho, el ritmo del corazón de cada cual como cronómetro! 

Sí, tuvo que llegar Galileo para que se inventara el primer termómetro. Y en efecto, hasta la fecha la temperatura, como magnitud física y objetiva, no existía; se concebía como una cualidad completamente subjetiva y propia de las sensaciones de cada uno:

 -Esto está frío- decía alguien, mientras otro le reprochaba -¡Qué dices, si está templado!-. 

En efecto, con la llegada del mismo termómetro por ejemplo, las sustancias ya no son ni frías ni calientes, sino que poseen una temperatura propia que cualquiera puede confirmar usando, precisamente, un termómetro convenientemente equilibrado y pautado.

De aquí nació una de las grandes convicciones modernas: que las cosas tienen propiedades ocultas que les son objetivas, intrínsecas, innatas, esenciales, primarias ¡Son las cualidades metafísicas de las cosas! Y son metafísicas porque jamás cambian: ni nacen ni mueren, sino que les son propias a las cosas según sus circunstancias y condiciones inherentes. 

En este sentido, pues, se andaba convencido de que estas cualidades pueden revelarse y salir a la luz mediante la medición ¡Y la deducción de estas medidas! 

Estamos ante la creencia metafísica fundamental que se empezó a implantar a lo largo del s.XVII y sobre la cual emergió con una fuerza hercúlea la ciencia moderna: la física, la química, la medicina, la historia, la política, etc. 

Estamos ante la raíz que elevó a todo el pensamiento occidental hasta nuestros días. Esto lo vislumbró de maravilla René Descartes como un auténtico oráculo del provenir occidental. Sí, el francés soñó con el futuro.

En sus famosas "meditaciones metafísicas" por ejemplo, el francés se propone demostrar que existen dichas cualidades objetivas ocultas en las sustancias que percibimos, y que gracias al método hipotético-deductivo las podemos conocer y con ello, acercarnos a Dios: al conocimiento absoluto de la realidad... ¡De lo que es común a todo! 

Recordemos que un siglo antes, Montaigne mismo (aquí lo explica de maravilla), dudaba de que existieran tales cualidades ocultas reposando en el seno de nuestras vivencias, percepciones y medidas ¡Pues, sí, medir cosas también es una vivencia! 

¿La ilusión científica moderna se basó en una mentira?

Es capital entender, pues, que  para los pensadores modernos los instrumentos de medida son como baritas metafísicas mágicas: abrirían de par en par nuestras percepciones, siempre subjetivas y confusas, superficiales y cualitativas, para sacar de sus más profundas entrañas una supuesta esencia objetiva, clara y evidente: su valor innato y propio. Un valor mesurable, racional y por tanto, factible de ser deducido a través de leyes generales. 

Toda medida se ha tomado por racional al suponer que de una medida podemos deducir otras si nos guiamos por la ley universal que las entrelaza, y a través de este encadenamiento podemos aspirar al conocimiento absoluto de la realidad.

De alguna manera, como en una obra de teatro el pensamiento moderno escenificó la vida como un ensueño de percepciones y sensaciones que, como si fueran una piel multicolor, encubrían y engalanaban las cosas reales: 

-Las escenas que vivimos siempre se basan en hechos reales- Se esgrimía. 

Así se propagó la idea de que más allá de nuestras sensaciones y percepciones, de los sonidos que escuchamos, de los colores que vemos, de los escalofríos, gustos y olores que inundan y avivan nuestra alma de alegrías, penas, tristezas, deseos y esperanzas, reposa hierático y solemne el "mundo real", fuente de lucidez para la humanidad. 

Es precisamente Descartes quien nos habla por primera vez de "la cosa en sí" para referirse al mundo real que nos rodea y afecta ¡A lo que es común! Y lo define como una sustancia material -"res extensa" dice en latín ¡Puro espaciotiempo! 

La sustancia material no tiene color ni textura, ni dureza o suavidad, ni es fría ni caliente, ni huele a nada ni emite ruidos ni música ni hace cosquillas ni pincha ¡Sólo son formas geométricas en movimiento causal! Con razón resulta comprensible para un entendimiento bien amueblado. 

Sin embargo, añade el francés, nuestra mente de inmediato y sin pensarlo percibe este espaciotiempo mediante esas cualidades secundarias, epidérmicas y subjetivas: como "algo" con color, textura, dureza o suavidad, como sonido y olores, como frío o calor, como algo agradable o desagradable, etc... 

Intuyo que por herencia directa de Platón Descartes vuelve a imaginarse el espaciotiempo como "algo" puramente geométrico; y como Platón también observa que la geometría nos muestra un mundo objetivo, común y comprensible para cualquiera con capacidad de raciocinio. 

De hecho, me parece remarcable destacar como el propio Einstein reconoce la influencia cartesiana en su concepción del espaciotiempo en la relatividad general cuando se planteó tumbar el paradigma newtoniano, en el cual la materia (la masa) se concibe como algo ajeno al espaiciotiempo.

Ahora bien, para ser precisos cabe apuntar que el dulce sueño cartesiano en realidad duró imberbe sólo dos siglos; lo que tardó en salir Kant, quién reconocerá que esa "cosa en sí" cartesiana resulta completamente imperceptible, indefinible, inconcebible ¡Qué las cosas son imposibles de ser comprendidas y percibidas por sí mismas! 

Por consiguiente, con el alemán la objetividad científica pasaría a ser una forma especial de subjetividad más y, por consiguiente, inviable para hacer metafísica con ella: 

-¡Los hechos y medidas experimentados jamás nos permitirán conocer como son en verdad las cosas, tal y como nos había prometido Descartes; sin embargo siempre nos impulsan a aspirar a tan magnífico conocimiento!- Viene a pronosticar el alemán. 

Metafísica kantiana y post kantiana

Uno de los aspectos singulares de la famosísima crítica kantiana consiste en alertar como la objetivación no procede de las sensaciones y percepciones, sino de los conceptos o los esquemas conceptuales que empleamos para concebir de una forma comprensible lo experimentado: 

La objetivación surge de nuestras capacidades mentales, no reside ni en nuestras percepciones, siempre irracionales, ni mucho menos proviene de "allí fuera", de las cosas en sí mismas. 

Con este famoso giro copernicano Kant cree dejar atrás el dogmatismo cartesiano, adorado siempre por los científicos como Einstein, mientras abre la puerta al idealismo transcendental, con el cual defiende que los hechos objetivos son artificialidades conceptuales de nuestra mente.

Bien es cierto, pero, que en un principio contra Kant se levantaron todos sus discípulos para justificar, mediante una reforma de este idealismo llamada "positivismo", que las medidas sí nos muestran lo real ¡Y que las medidas son perfectamente deducibles unas de otras mediante leyes universales porque son de naturaleza estrictamente racional! 

Sólo cabe recordar lo que escribió Fichte en su obra capital, aunque ahora ya nadie lo recuerde: "Fundamento de toda doctrina de la ciencia" ¡O Hegel con su archidifundida fenomenología del espíritu, donde pretende justificar que los "hechos" y "observaciones objetivas" serían verdades inmediatas que a través de un encadenamiento dialéctico nos permiten aspirar al Absoluto! Y en este sentido, honestamente, que Alemania haya sido una potencia científica e industrial desde finales del s.XVIII no  me parece nada casual: hubo filósofos imprescindibles para que se diera tal éxito.

Por lo dicho, pues, este idealismo post kantiano fue el primer esfuerzo para salvaguardar el pensamiento objetivo de la primera crítica seria; la crítica kantiana. Y de alguna manera, fue un intento de "no querer despertar del sueño cartesiano":

 -¡Conociendo los hechos del mundo sí podemos aspirar al conocimiento absoluto!- Se replicaba en las plazas de las ciudades, en las cátedras universitarias y en los periódicos para convencer a los más indecisos, como bien recuerda asqueado Schopenhauer al contemplar ese circo de escribas, eruditos y picateclas con ínfulas de sabios. Pues se puso de moda recopilar datos, todos los datos, cuántos más datos y hechos mejor... Sí, cientos de miles de cerebros occidentales licenciados por las universidades modernas fueron sacrificados en aras de la recopilación de información, creyendo que cada vez se acercaban más y más a la culminación científica. 

Aquí confieso que siempre me ha hecho gracia leer cómo a mediados-finales del s.XIX esa élite positivista andaba ya orgullosa y convencida de que el conocimiento de la realidad estaba ya casi hecho; que sólo faltaban por pulir unos flecos menores en los distintos ámbitos del saber. 

Hoy, los enamorados del Big Data siguen casi los mismos senderos idealistas de esos viejos positivistas ¡Aspirando a un conocimiento completo! Pero ya no necesitan a ningún ejército de alfabetizados; con las supercomputadoras se bastan para este tipo de trabajo esclavo, o al menos digno de hormiguitas obreras. Con razón el sistema educativo de masas muy posiblemente vaya a cambiar de raíz. 

Sin embargo, aunque durante un siglo largo no le hicieran nada de caso en este aspecto, Kant ya había plantado el germen de la duda en el alma moderna:

  ¿Y si el mundo objetivo de los hechos, medidas y relaciones geométricas -ese mundo material cartesiano-, no fuera el mundo real sino otra subjetividad  humana más que, como un velo o una sombra persistente, nos esconde la verdadera realidad? 

Y es que Kant, mediante esa paradójica ciencia transcendental que se sacó de la manga al reinterpretar la metafísica cartesiana, pone en duda que "la cosa en sí" esté hecha de materia (geometría); de hecho, pone en duda que éste hecha de nada, absolutamente nada. 

Por tanto, el juego que Kant deja sobre la mesa para los futuros pensadores dice: "la cosa en sí", y por tanto "lo real", si bien existe fuera de nosotros y nos afecta no tiene porqué ser nada objetivo, geométrico ni comprensible. Suponemos y creemos que debe de ser así, sin embargo ese mundo ajeno a nosotros, del cual pensamos que proceden nuestras sensaciones, percepciones y por tanto mediciones, es una inmensa X: 

¡Y como X bien pudiera ser cualquier cosa! 

Por consiguiente, con Kant se abre la puerta a dudar del espaciotiempo como característica propia de la realidad, mientras se busca "otra forma" de definirla y caracterizarla, dado que aún se anda convencido de su existencia:

-¿Y si medir que un vaso de agua está a 25ºC no sea real, sino un tipo de ilusión y subjetividad humana más?

-¿Y si medir que una piedra cae con una aceleración de 9,8 m/^2 no es real, sino un tipo de ilusión y  subjetividad humana más?

-¿Y si afirmar que "todo está determinado a ser lo que es, dado que todo evento es fruto de una causa y a su vez será la causa de un evento posterior" no fuera algo real, sino un tipo de ilusión y subjetividad humana más?

-¿Y si afirmar que el sexo viene determinado por los cromosomas, los cuales generan diferencias específicas entre los miembros de una especie biológica, no sea algo real, sino un tipo de ilusión y subjetividad humana más?

-Y si afirmar que...

En efecto, muy poco a poco algunos filósofos y pensadores empezaron a aprovecharse de esa oscuridad trascendental kantiana, de esa inmensa X fantasmagórica e inaccesible imaginada por el padre del idealismo, para inventarse nuevas metafísicas: ¿y sí lo real no viniera dado por el entendimiento como proponía Kant, sino por las intuiciones puras o por los sentimientos o por las sensaciones o por los deseos, o por las creencias e imaginaciones, o por...?

En este tipo de duda se adentraron los irracionalistas, con Schopenahuer en cabeza ¡O Bergson! Cuyas críticas a Einstein, un objetivista de pies a cabezas, simplemente se fundamentaban en tan gran oscuridad kantiana. 

¡Y qué decir de Heidegger! 

Heidegger fue uno de los que más se aventuró en el interior de esa tenebrosa ciencia transcendental creada por Kant y que han seguido de un modo u otro, como buenos colegiales, todos, sí todos, los filósofos académicos durante siglos, para alertar de que la realidad no podía ser nada racional, objetivo, fáctico ni tampoco irracional, intuitivo, sensitivo... Para el alemán lo común a todo tenía que ser completamente diferente a Algo (racionalismo) y a Nada (irracionalismo). Y de tal guisa prometió una nueva metafísica.

A mí parecer la paranoia en la que entró el alemán fue mayúscula: aún creía ciegamente en "la cosa en sí", sin embargo ya no podía creer en "la cosa en sí" porque "la cosa en sí" no podía ser ni cosa ni nada ¡Menuda soga se puso en la cabeza siguiendo esas tinieblas de la ciencia transcendental!  

Sin embargo, vale reconocerle a Heidegger ese atrevimiento suyo por entrar a lidiar a pecho descubierto con el tema que hoy quiero hablar: ¿Dónde queda la vieja objetividad científica con la mecánica cuántica? 

De hecho, que lo hiciera dice mucho de su pensamiento. Apostaría a que "robó" su definición de "cosa en sí", que rebautizó como "el Ser", de una interpretación muy naíf de la mecánica cuántica y su principio de superposición al tratarlo como "todas las posibilidades que se podrían dar"; para luego introducir su famoso Dasein como el "colapso" de todas estas posibilidades en una de concreta y objetiva.  

Quizás Heidegger sea un grande, como siempre se empeñó en promocionar Hanna Arendt entre intelectuales, editores y profesores; o quizás, como dice el dicho: en el país de los ciegos el tuerto es el rey. Eso lo dejo al gusto del lector, aunque prefiero mil veces antes a Montaigne, por ejemplo.

A modo de resumen, pues, me parece preciso señalar cómo es a raíz de Kant que otros pensadores posteriores han intentado plantear nuevas metafísicas: nuevas maneras de caracterizar y definir "ese mundo imaginado común, supuesta fuente de nuestras experiencias y vivencias," harto distintas a la fáctica y geométrica y que soñaron Platón, Kepler, Galileo, Descartes... 

En este sentido, el gran "mérito" de Kant fue, a su despecho vale añadir, dar justificación teórica para luchar contra el objetivismo científico. Y el postmodernismo actual es un claro ejemplo de metafísica que lucha contra la ciencia ¡Contra su poder y dominio espiritual! 

De hecho, sospecho que estamos en los albores de una revolución espiritual en toda regla; y como en cualquier revolución también aquí el odio y el resentimiento contra la ciencia por parte de quienes se han visto marginados por ella se huele a kilómetros. Y me temo que, como ya le ocurrió a la nobleza francesa o rusa, hoy los científicos tampoco advierten lo que se les viene encima. 

¿Me equivoco? En fin, lo veremos. Pero en todo caso nos vemos solos. Nosotros, los que ya no creemos en ninguna metafísica.


El objetivismo. Guía para iniciados:

La convicción profunda que ha sustentado el objetivismo moderno se puede resumir a grandes trazas en varios puntos:

-Mis percepciones y sensaciones son un reflejo de un mundo que me es ajeno al residir fuera de "mí", pero me afecta a través de los sentidos corporales.

-Ese mundo ajeno a mí es "un mundo objetivo", dado que es común a todos  ¡Todos lo percibimos! Con razón "realidad" es su nombre.

-Mis sensaciones y percepciones me muestran cómo son las cosas según mi manera de ser. Pero las cosas, más allá de cómo yo las perciba, tienen una manera propia de ser ¡Siguen una lógica propia! ¡Un ethos interno! Tienen una vida propia, por así decirlo.

-Las cosas, por sí mismas, nunca atienden a mis impresiones, deseos, expectativas ni plegarias ¡Siguen un comportamiento completamente autónomo! Sólo las mentes supersticiosas creen en semejante voluntarianismo. 

-La ciencia no consiste en pretender saber cómo me parece a mí que son las cosas, sino en cómo son éstas por sí mismas: ¡Intenta descubrir la lógica interna y propia que siguen las cosas: su comportamiento y manera de ser! En efecto, la ciencia busca conocer "la cosa en sí" y "no la cosa en mí".

-La cosa en sí es lo común a todos. A mí las cosas me pueden parecer de una manera, a otro de otra, pero por sí mismas son de una determinada manera. 

-¿Cómo salir de mí y conocer las cosas en sí mismas? A través de las medidas y las observaciones pormenorizadas ¿Por qué? Porqué a través de las medidas todos compartimos una misma visión de las cosas. 

-Conclusión: toda opinión basada en medidas, hechos, datos nos mostrará el mundo que nos es común: la realidad.

De todos modos, escuchemos a Einstein, que lo detalló maravillosamente con un sólo párrafo:

"La creencia en un mundo exterior, independiente del sujeto que percibe, es la base de toda ciencia natural. No obstante, dado que la percepción sensorial sólo brinda una información indirecta de ese mundo exterior o "realidad física", únicamente podemos captar a esta última por medios especulativos. De aquí se concluye que nuestras nociones de la "realidad física"  nunca podrán ser definitivas. Debemos estar siempre preparados para cambiar esas nociones -es decir la base axiomática de la física- para mantener una relación adecuada con los hechos percibidos, de la manera más lógicamente perfecta. Por cierto, una breve mirada al desarrollo de la física nos muestra que la ciencia ha pasado por cambios profundos a lo largo del tiempo.". 

Eh aquí pues el objetivismo sobre el cual se levantaron gloriosas nuestras ciencias modernas. Y los científicos en masa siempre se han sentido harto cómodos dejándose guiar por esta convicción metafísica; con lo cual raramente se la han cuestionado. 

Pero intentemos profundizar un poco más en este objetivismo. Intentemos analizarlo y estudiarlo y ponerlo a prueba. Seamos realmente científicos. 

Para empezar vale reconocer que los científicos hace ya siglos dejaron de ser empiristas ingenuos y por tanto, dejaron de creer que el mundo exterior es tal y como lo vemos. Pero la gente en masa aún lo cree. Sólo basta con escuchar qué dice la gente de la calle para apreciar como aún cree que lo que vemos, sentimos y tocamos es como una fotografía de la realidad exterior. Sí, sorprende su poca perspicacia.

Así que, al empezar sería bueno para la mayoría escuchar a Kia Nobre hablando con Eduardo Punset en "Redes", por ejemplo. Entonces empezaremos a darnos cuenta hasta qué punto lo que vemos, percibimos, pensamos, sentimos, escuchamos, conocemos y que en global creemos que nos muestra algo real y verídico de ahí fuera, es un proceso sumamente complejo lleno de "errores", falsificaciones, etc. 

Y algo aún más curioso si cabe: pensar que este proceso es ejecutado por nosotros, por la mente humana o la consciencia, como imaginaba Descartes ya en sus meditaciones por ejemplo, precisamente es también parte y juez de este proceso... y como tal un error. 



Ya en el siglo XIX, por ejemplo, uno de los pensadores que ha marcado un antes y un después en la evolución del pensamiento se dio cuenta que todo el "pensar" humano no sólo es un proceso complejo, sino que anda lleno de falsificaciones, tergiversaciones y errores, como la lógica mismo; y con tan inmensa perspicacia destrozaba toda la metafísica occidental de raíz, echando sin miedo al mar el dogmatismo, el idealismo, el transcendentalismo y toda oscura X al negar por completo la cosa en sí ¡Y también el yo consciente! Y por supuesto a Dios... Con razón fue incomprendido por todos, absolutamente todos.

Sí, era imposible que fuera comprendido por las grandes inteligencias occidentales del momento. A fin de cuentas, éstas no dejaban de nadar atrapadas en sus respectivas ilusiones metafísicas: los científicos en el objetivismo cartesiano y los filósofos en una ciencia transcendental que les permitiese divagar hasta encontrar nuevos tipos de metafísica, algunas objetivistas, como las de Popper o Ayn Rand, y otras de no objetivistas, como las de los existencialistas por ejemplo. 

De hecho, sólo cabe leer como Heidegger mismo deambulaba completamente zombie por esa ciencia transcendental suya del Ser y el Dasein que le nublaba los ojos, mientras explicaba la obra de Nietzsche de forma torpe y desafortunada, por no decir directamente deshonesta ¡Sin saber sacarle ningún provecho! Y tristemente ese "Nietzsche" de Heidegger, un auténtico muñeco de paja hecho a medida de las inteligencias a medio cocer de sus alumnos, fue el que terminó imperando entre demasiados académicos del s.XX. 

Porque siendo rigurosos: en esas clases no había nivel para mucho más, hecho que para nada importa si son ellos mismos quienes se dan y se quitan el nivel.  


Nietzsche y el dilema de "lo real"

Me sorprende y a la vez hiela leer como Nietzsche se avanza con una agilidad mental desbordante al dilema que más tarde nos ha planteado la mecánica cuántica y ha hecho tambalear de raíz el objetivismo metafísico científico. Aunque, siendo honesto, Montaigne tampoco se quedó nada corto.

El autor del Zarathustra se da cuenta de que si no hay "cosa en sí", ni tampoco un "yo" fantasmagórico que "observa" esa hipotética "cosa en sí" de forma pura e inmaculada, entonces el conocer nunca puede ser un captar valores objetivos, innatos y propios. En otras palabras más precisas, que medir no puede ser un toque de barita mágica para despejar nuestros ensueños y embrujos más confusos y sacar a la luz "lo real", lo claro y evidente ¡Lo que se ocultaría tras nuestras percepciones, medidas y vivencias, siempre dudosas!

Nietzsche deja muy claro entonces que el conocer, en esencia, es un interpretar, un interactuar, un metabolizar, un intercambiar. 

De hecho, puntualiza, que el mismo sentir, percibir, medir sería propiamente lo real; que lo bautiza con la famosa expresión: "voluntad de poder": Ejercer una fuerza y un dominio sobre algo es ya "un percibir" algo de una determinada manera ¡Es configurarlo para que sea y se muestre de determinada manera! 

Si recojo agua con un cubo el agua tomará forma de cubo; si la recojo con un recipiente esférico tendrá forma de esfera ¿Cuál es la forma propia de ser del agua? Ninguna, todas... 

Nietzsche más bien destacaría que la forma adquirida por el agua es sólo una expresión de poder entre el agua y el recipiente, un intercambio de fuerzas y formas hasta alcanzar un cierto equilibrio geométrico por decirlo de alguna manera ¡No hay nada de metafísico en tal conflicto!

Así pues el "percibir" o el "afectar" es lo único real al ser lo único que existe. Y como ya avanzaba Montaigne, lo único que podemos decir es que estamos ante un permanente fluir. Un fluir que Nietzsche termina dando el nombre de "voluntad de poder" (de hecho en el texto linkado antes de Montaigne hay mucha idea que luego toma y desarrolla Nietzsche)

Ahora bien, si bien este "fluir o percibir" es lo real, no es ninguna realidad en sí. En otras palabras, el percibir no es propiamente nada, dado que no muestra jamás unos valores propios, innatos y metafísicos que lo determinen a ser de una determinada manera; como por ejemplo sí le atribuía Hume a la percepción -de los pocos que, como Montaigne siglos antes, ya habían sospechado que eso del yo consciente contemplando el mundo exterior hacía aguas por doquier.  

En tal sentido, pues, Nietzsche nos habla de la realidad como un puro y complejo afectar, transformar, interactuar, modelar y nada más. Es más, nos habla de una realidad nihilista, dado que carece de valores intrínsecos, ocultos, inherentes. 

-¡Pero si al medir obtenemos valores! Si pongo el termómetro con el agua hirviendo me marca 100ºC. ¿Me estás diciendo que el agua no está a 100ªC? ¿Qué lo de 100ºC es algo inventado? - Se nos puede esgrimir al más puro estilo Sancho Panza intentando hacer entrar en razón a Don Quijote. 

Ya, pero estos valores no son intrínsecos de lo medido, sino que sólo ponen de manifiesto la relación, la percepción o el proceso de interacción entre lo medido y la medida ¡Sólo son afectos!  Porque solo hay afectos: -Los 100º sólo muestran un cierto equilibrio térmico entre el agua y lo que llamamos termómetro, es decir, una relación de poder. No puedes ir mucho más allá de eso.- Vale esgrimir.

Sin embargo,  una mente objetivista ve el agua por un lado y a nosotros con termómetro en mano por otro como "dos mundo" completamente distintos autocontemplándose entre sí ¡Sin realmente tocarnos nunca porque nos trata como si fuéramos dos cosas distintas! Pero, ¿realmente el agua y nosotros somos dos cosas independientes y autónomas que se conocen de forma pura y angelical mediante un termómetro? 

Nietzsche es, pues, el primero que advierte una sutileza que ha pasado desaperciba a las mentes más groseras y vulgares: al medir afectamos y configuramos lo medido, nos mezclamos con ello y nos convertimos en parte de ello, simplemente porque medir es un procesar, un interactuar, un percibir... voluntad de poder. 

Por lo dicho, pues, cabe interpretar y pensar que al medir no descubrimos absolutamente nada de metafísico, transcendental e intrínseco en lo medido, sino que establecemos una cierta relación de equilibrio y de poder entre medidor y medido. Un cierto equilibrio de poder que luego es interpretado acaso geométricamente mediante un valor numérico si imponemos una escalera de valores arbitraria. 

Medir es ir entablando una cierta "amistad" con algo mientras vestimos tal amistad de unos valores que nos sean comprensibles y manejables ¿Qué hay aquí de metafísico y real?

Conocer es un acto de nutrición y metabolización: un masticar, digerir y asimilar lo que vamos conociendo, con lo cual sufrimos al mismo tiempo una transformación. ¿Qué hay aquí de metafísico y real?

Observar no es nunca un estar fuera del mundo, un ver las cosas por sí mismas, sin intereses, egoísmos ni partidismos, sino una forma de tomarte las cosas y por tanto de masticarlas, digerirlas y metabolizarlas.

 Visto así, pues, con Nietzsche parece quedar claro que resulta una ya vieja superstición metafísica imaginar que conocer sea un contemplar sin mancillar la supuesta realidad que mora más allá de nuestras apreciaciones y experiencias desde la más absoluta neutralidad; sin alterarla, manipularla ni afectarla para nada ¡Sin ensuciarla ni desvirgarla! Aspirando a conservar, siempre, su hipotética dignidad y manera propia de ser. 

¡Medir ya no es un contactar con las cosas por sí mismas como el espíritu santo contactó con María! 

Es cierto que el objetivismo, visto así, huele a ética. Y en efecto, todos quienes han defendido la interpretación metafísica y objetivista de la ciencia lo han hecho guiados en secreto por una disposición ética muy peculiar.  De hecho, aquí también se asombra Nietzsche: cualquier tipo de interpretación metafísica de la vida surge de una disposición ética muy concreta, la cual, a su vez, es un síntoma de una u otra disposición afectiva hacia cuanto se vive. Y curiosamente así bien se aprecia cuando se estudian a los grandes científicos, acaso Einstein o al mismo Roger Penrose. Aunque esto daría para otro post.

En definitiva, pues, con el creador del Zarathustra lo real pasa a ser un afectar permanente, un devenir permanente, un continuo interpretar, percibir, procesar ¡No hay cosas que sean percibidas ni sujetos que perciban cosas! Todo esto ya es un interpretar, un cuento fluido e histórico y un percibir muy peculiar que se entremezcla y transforma con otros interpretaciones, dado que evoluciona... 

Nietzsche nos presenta, pues, el conocimiento empírico basado en el "el medir" como una lucha de equilibrios de poder, un metabolizar, un toma y daca... ¡Un acto de amor!: 

Midiendo, experimentando, viviendo no se conoce la realidad sino que se engendra el futuro: 

¡No se descubre nada al percibir, sino que se crea!   

"Contra el prejuicio científico. — La mayor fabulación es la del conocimiento. Se quisiera saber cómo están constituidas las cosas en sí: ¡pero he ahí que no hay cosas en sí! Pero incluso suponiendo que hubiera un en-sí, un incondicionado, ¡precisamente por ello no podría ser conocido! Algo incondicionado no puede ser conocido: ¡de lo contrario precisamente no sería incondicionado! A fin de cuentas conocer es siempre «ponerse-en-relación-condicional con algo»: un «cognoscente» quiere conocer algo que no le concierne; pero si ese mismo algo no le concierne, entonces hay aquí una contradicción, en primer lugar, entre querer-conocer y que no le concierne (¿para qué, entonces, conocer?). Y, en segundo lugar, porque algo que a nadie le concierne, simplemente no es, y por lo tanto tampoco puede ser conocido. — Conocer quiere decir «ponerse en relación condicional con algo»; sentirse condicionado por algo que nos concierne y entre nosotros es, por lo tanto y en cualquier caso, un fijar, designar, un hacer consciente condiciones (NO un penetrar en esencias, cosas, «en-sís»)"  1885-1887, 5 [50]. 124 FRAGMENTOS POSTUMOS F. Nietzsche.

Nota: Nietzsche borda este tema con una metáfora oracular, dura pero a la vez cristalina como el diamante, en el Zarathustra: "del conocimiento inmaculado" -Libro 2º (ver). 


La mecánica clásica vs la mecánica cuántica: ataque al objetivismo

Antes de la mecánica cuántica se creía que al observar un proyectil o móvil, acaso una pelota lanzada, el observador no afectaba para nada su trayectoria. En otras palabras, el proyectil seguía siempre una lógica interna y propia (las leyes de Newton) hubiera un observador, dos, mil o ninguno; y se podía predecir con gran precisión la posición y el momento(velocidad) del proyectil en cada instante 

La mecánica clásica toma a los observadores como seres angelicales, desinteresados y divinos.


¿Por qué? Se dieron cuenta de algo curioso: que a través de las ecuaciones de la dinámica clásica era posible imaginar un escenario objetivo capaz de predecir, tanto en el pasado, como en el presente como en el futuro los datos medidos sin problemas. Se suponía, pues, que el comportamiento del proyectil estaba completamente determinado por su propia lógica interna, mientras se pensaba que los observadores lo podían contemplar "desde fuera" y sin alterarlo. Así se explicaba el porqué dado el momento(velocidad) del proyectil y su posición en un instante entonces resultaba factible deducir toda su trayectoria sin problemas. 

Esta disposición metafísica nos llevó a creer ciegamente en que la realidad era tal y como indicaba este escenario dinámico imaginado por la mecánica clásica; que detrás de nuestras medidas y observaciones había leyes universales comprensibles que, precisamente, las regulaban y determinaban a ser las que eran y no otras. La vida parecía el juego de mesa creado por un ser omnipotente y sabio, acaso el propio universo-dios, donde todos sus movimientos estaban perfectamente determinados de antemano por esa voluntad superior ¡Todo sucedía, pues, por alguna razón!  

Sí, los científicos casi siempre han sido fervientes creyentes de Dios hasta mediados del s.XX. Y todo su conocimiento se erigía sobre una metafísica muy concreta: el objetivismo.

Con la mecánica cuántica, pero, este sueño parecía explotar en mil pedazos. Einstein intentó repetidamente salvarlo una y otra vez, pero en cada intento se agraviaba la derrota del objetivismo; era como intentar apagar un fuego que se había prendido en las raíces mismas de la física con gasolina.

¿Qué nos cuenta la mecánica cuántica?

Explica Feynman que todo el intríngulis de la mecánica cuántica se reduce, en última instancia, a comprender un experimento crucial: el experimento de la doble rendija. Vayamos a verlo.



Para empezar comentar que para la mecánica clásica los fenómenos o respondían a partículas o bien a ondas. En este sentido cabe recordar las duras discusiones sobre la naturaleza o corpuscular o bien ondulatoria de la luz entre Newton y Huyggens; pues una onda y una partícula son dos entidades que conceptualmente se contradicen entre sí, con lo cual nada puede ser tomado como onda y partícula a la vez de forma coherente y comprensible ¡Es como intentar construir un cubo esférico! 

A principios del s.XX había un conjunto de medidas que se interpretaban fácilmente como efectos medibles de una partícula invisible a ojo humano llamada "electrón", dado que una de estos valores medidos correspondía a la masa; que por herencia newtoniana se concebía como un punto en el espaciotiempo desplazándose, es decir, como una partícula. 

Sin embargo en la década de los años 20 De Broglie pronosticó que una partícula, como parecía ser el electrón, podría mostrarse también como una onda. Hecho que parecía muy raro y paradójico, pero concordaba con el efecto fotoeléctrico descrito años antes por Einstein.

A partir de aquí se desarrollaron las matemáticas de la mecánica cuántica y en los años 70 se realizó el primer experimento de la doble rendija tal y como había ideado anteriormente Feynman: lanzar lo que conocemos como "electrones" a través de una doble rendija hasta que alcancen una pantalla de detección y analizar los datos obtenidos en la pantalla. 

Dibujo imaginado del experimento 

Este experimento, pero, tenía algo especial: permitía configurar 2 tipos de mediciones distintas:

a) Una de las configuraciones permitía detectar datos que se interpretan normalmente como de una onda. 
b) Y otra de las configuraciones permitía detectar datos que se interpretan de ordinario como de una partícula. 

De algún modo era como el ejemplo del agua con el cubo y el recipiente esférico. Tenemos el electrón (como si fuera el agua), que no sabemos cuál es su forma exactamente y para descubrirlo lo intentamos atrapar o mediante un cubo (como si fuera una onda) o mediante un recipiente esférico (como una partícula).

Y en efecto, el experimento constató que el electrón da medidas de onda cuando se intenta detectar a través de una medición típica de una onda, y da medidas de partícula cuando se intenta detectar como una partícula.

Pero se constató algo más: que si el electrón es detectado como partícula, entonces ya no mostrará medidas de onda; y viceversa... Al igual que el agua: si toma forma de cubo porque la has metido en un cubo entonces ya no lo podrás meter en el recipiente esférico, y viceversa. 

La pregunta fue inmediata: ¿el electrón es una onda o una partícula? 

Sin embargo, vale insistir de nuevo, estamos ante una pregunta elaborada desde una perspectiva estrictamente metafísica: se supone que el electrón, como una cosa en sí, existe más allá de nuestras apreciaciones y medidas y que además posee características intrínsecas, que deben de ser cognoscibles para nosotros mediante estas medidas nuestras y su racionalización. 

Sin embargo, ¿Qué tenemos en realidad? 

Sólo afecciones, medidas, interacciones, apreciaciones, las cuales interpretamos a través de una compleja arquitectura conceptual fisico-matemática construida a partir de nuestra imaginación. 

En resumidas cuentas, que "el electrón" es puro mito.

De la percepción al mito

Quizás no haya habido una tontería mayor que aquella que esgrimía con solemnidad uno de mis primeros profesores de filosofía en la universidad: -La ciencia y la filosofía surgen con el paso del mito al logos-

No obstante cabe reconocer, como ya he escrito en otros sitios de este blog, que la creencia y la convicción de que existen opiniones realistas que nos hablan de las cosas en sí y opiniones mitológicas, fantasiosas y que tratan de nuestras cosas imaginadas, manifiesta una de nuestras supersticiones epistemológicas más primitivas. Una superstición que dio alas precisamente a la filosofía y a la ciencia.

Pero vayamos más allá y diseccionemos nuestras opiniones, en concreto las supuestamente más realistas y sólidas. ¿No apreciamos entonces que son mitología y como tal se sustentan en gran medida sobre nuestra pura imaginación por así decirlo? ¿No se ve?

Centrémonos en algo fácil: comparemos la mitología griega con la física actual. Para los griegos antiguos Zeus cubría los cielos de oscuridad y lanzaba rayos cuando se enfurecía. Y ¿cómo era Zeus? Como ser divino era vagamente visible para los humanos; de hecho siempre se nos aparece o transformado o bajo efectos indirectos, como el fulgor radiante o el vigor. 

En consecuencia, la explicación dada por esa mitología antigua creada por poetas geniales viene a decir: una fuerza imponente y fulgurante llamada Zeus es la causa de que caiga un rayo y el rayo es, a su vez, la causa de que nosotros escuchemos un ruido atronador y observemos un resplandor fulgurante en el cielo ¡Y cuando los antiguos alertaban del resplandor y oían el trueno allí, emborrachados de imaginación, sólo veían a Zeus enfurecido! Si, nuestra imaginación domina constantemente nuestra vista y sentidos.

Sin embargo, ¿qué había de real en esta explicación? Sólo afectos: un ruido atronador y un resplandor fulgurante bajo cierta sincronización temporal ¡Nada más! Ahora bien, de este par de afectos la imaginación introdujo un sujeto abstracto y artificial, el rayo, adjetivándole dos propiedades o facultades: la de tronar y resplandecer. Y luego la imaginación hizo algo más: como lo concebía como sujeto, o entidad, entonces al rayo le atribuyó un origen o causa: Zeus y su estado de humor. Sí, los afectos permitieron a los poetas imaginarse a tal ser divino como resplandeciente y atronador usando "algo" (el rayo) contra los mortales. 

Por tanto, a partir de dos afectos relativamente simples, el ruido atronador y el resplandor fulgurante, los poetas griegos imaginaron que "existía" todo una ontología detrás: una cosa en sí (el rayo) con todo un mundo mitológico donde "ocurrían" supuestamente muchas cosas fantásticas pero relatables y, por ello,  con una cierta lógica -Luchas y conflictos entre Dioses

El mundo de la imaginación es mucho más basto e interesante que el real; que el de los afectos y apreciaciones. Y sin embargo son el mismo mundo.

Cuando luego vamos a la ciencia y analizamos lo que ésta nos cuenta sobre lo que llamamos "rayo", que en realidad no es más que ruido y resplandor más o menos sincronizados temporalmente, apreciamos sorprendidos como la ciencia lo sigue tratando a través de la imaginación: se imagina que el ruido y el resplandor son efectos de un sujeto (entidad) abstracto y artificial causante. 

Ahí está: por pura imaginación el pensamiento científico vuelve a introducir aquí un sujeto imaginario y fantasmagórico: acaso fotones para explicar el resplandor, acaso ondas sonoras para explicar el ruido. Y ambas entidades se explican mediante otra causa abstracta: el corrimiento de otras entidades distintas, dado que responden a afectos distintos, llamadas electrones. 

Ahora bien, en realidad sólo existen afectos, medidas, apreciaciones, y dado que éstos por sí mismos nunca nos dicen nada tenemos que imaginar una interpretación, un valor y un sentido ¡Hay que hipostasiarlos para que tomen cuerpo y podamos emplearlos para pensar y conocer! 

Hay que crear un relato, un marco teórico, ficticio y abstracto, para dotar toda medida y apreciación de significación y valor, dado que por sí misma carece completamente de una.  (ver)

Analizado así parece claro que el conocimiento humano consiste en "introducir", en todo afecto y percepción, un mundo artificial, mitológico y fantástico de cosas, entidades, sujetos ¡Y sobre todo valoraciones! 

¡Sin nuestra imaginación nos volvemos ciegos y no "vemos" casi nada! 

Pero hay más; incluso podemos pensar de forma más agresiva: que el conocimiento consiste, directamente, en transformar toda apreciación en una entidad con características y valores propios factible de ser comprensible según nuestra educación, cultura y forma de vida; nuestro "sentido común". 

¿Será esta potencia transformadora capaz de triturar, digerir y asimilar de un modo propio y significativo lo vivido para crecer y desarrollarse? Es decir, ¿será la creación de lo objetivo y con significado una expresión estricta de nuestra potencia de comprensión? De algún modo ésta fue la posición de Kant, aunque la trató de forma idealista y transcendental, y no como una metabolización mundana y fisiológica.  

Eh aquí pues, algunas de las razones por las que vemos la ciencia y el conocimiento como un tipo de mitología humana altamente sofisticada, efectiva y potente para actuar, pero en ningún caso como una barita mágica ni una vía hacia una supuesta realidad metaperceptiva.   


El problema de la medida en la mecánica cuántica

Ante las primeras matemáticas que se establecieron para gestionar los datos y medidas que aparecían al tratar "lo cuántico", en seguida apareció "el problema de la medida", que se ilustra con el famoso principio de incertidumbre de Heisenberg

Hemos visto antes como según la mecánica clásica un proyectil tenía posición y momento(velocidad), y que "conociendo" ambos valores en un instante puntual cualquiera entonces se podía deducir toda la trayectoria que realizada por el proyectil. 

Con la mecánica cuántica se alerta, en cambio, que al intentar detectar una entidad cuántica no se puede conocer ni su posición ni su momento (velocidad) al mismo tiempo, porque se deduce que cuanto mejor conozcas su posición menos conocerás su velocidad, y viceversa; de modo que resulta imposible predecir su trayectoria.

Con este principio de incertidumbre se derribó la visión objetivista que, de forma muy acomodada y naïf, había tomado la física desde Galileo y Descartes. 

Sin embargo, cabe analizar un poco la situación y preguntarse algunas cosas. Para empezar cabe cuestionarse: ¿realmente la mecánica clásica puede conocer la posición y velocidad (momento) de un móvil cualquiera en un momento dado tal y como siempre predica?

Para empezar me parece importante apreciar cómo la noción de posición y la de velocidad no son equivalentes epistemológicamente hablando. 

La noción de posición es directa, por así decirlo, dado que intenta representar una medida directa: la que puedes hacer sobre un mapa por ejemplo -Esto está aquí- Y señalando se obtiene la posición. por tanto, sólo depende de una única operación o medición. 

La noción de velocidad, en cambio, es secundaria o compleja. Si la analizamos advertiremos que resulta imposible tener una medida directa que represente la velocidad de algo. Para empezar, el conocimiento de una velocidad precisa de relacionar dos conceptos: la distancia y el periodo temporal. Y estos dos tampoco son directos. 

No hay pues una medida directa de velocidad. Lo que llamamos velocímetros por ejemplo, como los que tenemos en el coche, son aparatos que miden la distancia recorrida y el tiempo tardado ¡Y luego lo dividen! -toda velocidad empírica es siempre un promedio

Llegados hasta aquí cabe que preguntarse: ¿Cuántas operaciones precisamos para medir la velocidad? 

Necesitamos 7 operaciones:

1) Medir el tiempo en un instante 0

2) Medir la posición en un instante 0

3)Medir el tiempo en un instante 1

4) Medir la posición en un instante 1

5) Restar la operación 3 con la 1 para obtener el periodo de tiempo 

6) restar la operación 4 con la 2 para obtener la distancia recorrida

7) Dividir la distancia recorrida por el periodo tiempo tardado.

Una de las cosas más curiosas, y que de algún modo parece ser que ya se diera cuenta Zenón de Elea, es que sólo después de realizar estas 7 operaciones obtenemos la noción de velocidad; y esta noción es, además, un mero promedio ¡No es un valor completamente determinado! De hecho, es sabido que cualquier promedio si bien nunca es cierto, tampoco es jamás falso. Un promedio más bien sería una suposición válida.

Veamos como funciona el velocímetro de un coche:

A partir del diámetro de la rueda se sabe la distancia que recorre la rueda al dar una vuelta aplicando la fórmula del perímetro del círculo. Por tanto, un sensor en un punto de la rueda puede ir contando el número de vueltas que hace la rueda. Y entonces mediante un temporizador se miden periodos de tiempo:

En el instante 0 el sensor se activa por primera vez, al igual que el temporizador. Entonces cada segundo  que pasa el temporizador envía una señal al sensor para medir las vueltas que ha hecho la rueda. A más vueltas mayor la velocidad del coche. 

Por tanto, lo que nos muestra el velocímetro es el número de vueltas de rueda giradas en cada segundo. El problema es que para un tiempo menor a 1 segundo resulta imposible conocer su velocidad con este velocímetro. A priori nada priva de pensar que el coche durante un milisegundo, por ejemplo, estuviera completamente parado o bien que su velocidad fuera sumamente rápida. Lo único que nos dice esta medida secundaria es un promedio: que en un segundo ha hecho x vueltas ¡Nada más! 

Y llegados hasta aquí vayamos al dilema en cuestión: 

¿Es posible conocer la velocidad y la posición de un coche en un instante concreto? Empíricamente resulta imposible, porque si mido una posición, que es una medida directa, entonces me resulta imposible sacar de ella una velocidad en esa posición precisamente. A fin de cuentas la velocidad empírica solo es un promedio, siempre.

Y al revés, si digo que la velocidad del coche durante un segundo ha sido 100km/h porque me lo indica el velocímetro, durante este segundo he pasado por muchas posiciones distintas con el coche, pero ignoro a qué velocidad exacta iba en cada una de ellas. 

En resumen, a nivel empírico si tengo una velocidad no puedo tener una posición, y viceversa. 

Sin embargo la física moderna muy pronto creyó solucionar tamaño problema con Newton y Leibniz, y su cálculo infinitesimal.

El cálculo infinitesimal, mediante la derivación, permitió imaginar velocidades instantáneas. Estamos ante un instrumento puramente abstracto y artificial, que hasta Euler nadie se atrevió a tomar muy en serio porque resulta ser sumamente contradictorio y paradójico ¡Es pura fantasía! Sin embargo, tamaño handicap le dio igual al genio suizo cuando se alertó de su poder "explicativo" para modelar situaciones imaginadas; y empezó a usar los infinitesimales a destajo hasta reformular la mecánica newtoniana y obtener las herramientas físico-matemáticas empleadas hasta día de hoy. 

Esta es la situación: si bien a nivel de medidas nunca podemos tener directamente velocidades instantáneas, la derivación nos permite transformar velocidades promedio en velocidades puntuales, con lo cual resulta factible creer que podemos conocer la velocidad y la posición de un móvil en un instante concreto.

Para poder hacer eso antes de nada hay que imaginar que todo móvil traza, precisamente, una trayectoria suave y bien definida: una trayectoria que debe de ser continua, sin saltos, ni aristas o partes quebradas. Entonces, si ante los datos es posible imaginar una trayectoria así, ésta puede describirse como una función que tiene derivada en todos sus puntos; siendo la derivada la "velocidad instantánea" de esa función en cada uno de sus puntos.

 Por tanto los físicos herederos del trabajo de Euler, como Lagrange o Laplace, padres de todo el mecanicismo contemporáneo, hicieron el siguiente razonamiento mitológico:

Debemos presuponer, antes de nada, que todo móvil sigue una trayectoria continua. ¿Por qué? Porque así puede ser representada como una función derivable; y si tal función es derivable entonces nos permite fantasear con que cada instante de esa supuesta trayectoria imaginaria existe una velocidad concreta y propia; con lo cual, conociendo la trayectoria imaginaria (la función) se conoce ficticiamente la velocidad del móvil en cada una de las infinitas posiciones de la trayectoria. 

Pero insisto, todo esto es imaginación, fantasía, mito geométrico ¡Puro modelo físico-matemático! A nivel empírico las velocidades instantáneas resultan incontrastables; hecho que hecha por el suelo todo el trabajo epistemológico de Popper por ejemplo. Ahora bien, este modelo que nos presenta un mundo de entidades móviles trazando trayectorias continuas, suaves y derivables es muy efectivo para gestionar nuestras medidas; éstas encajan relativamente bien. 

No importa que el mapa no sea realista, sino que nos guie: que dote de sentido, significado y contexto a nuestras experiencias y apreciaciones.

En resumen: resulta imposible conocer la velocidad instantánea de un móvil cuando conocemos su posición concreta, y viceversa. Ahora bien, sí podemos imaginarnos un modelo continuo y derivable y confabular que dada una posición también podemos conocer su velocidad instantánea. 

Así pues, ¿qué diferencia habría entre la mecánica clásica y la cuántica?

Como hemos visto al científico clásico, cegado por la imaginación, le sabe fácil ver "cosas que se mueven" trazando trayectorias continuas, perfectas y derivables, y en donde él, como observador, ni interviene ni se involucra ¡Al científico clásico le resulta la mar de fácil representar el papel de observador neutro y desinteresado! Le basta con mirar las estrellas como si fueran seres angelicales moviéndose impertérritas por el firmamento. 

La mecánica cuántica, pero, es un bajar a la tierra y tocar de pies en el suelo. De repente el físico tiene que admitir que al observar te involucras con el proceso y por tanto, para conocer hay que meterse en el barro y ensuciarte las manos 

Sí, que bonito veían el mundo los físicos desde sus torres de marfil acristaladas y bien protegidas ¡Cómo si la realidad fuera un museo de paredes blancas y cuadros a distancia bien protegidos listos para ser contemplados! Entonces la vida les parecía la maravillosa creación de un Dios que dispuso todas las cosas a que fueran como son ¡Todo se podía conocer pero nada se podía tocar! 

Ahora con la cuántica pero, aprecian como toda medida es un interactuar y un mezclarse entre lo medido y el medidor, y ven un mundo mucho más salvaje y mundano, mientras admiten que toda medida es un valor condicionado, generado y creado. Admiten que toda medida también es physei.

En definitiva, con la mecánica cuántica los móviles ya no siguen una trayectoria propia y angelical, sino que la trayectoria "nace" de la interacción entre móvil y observador. 

Feymann, que le dio muchas vueltas a tema, propuso matemáticamente imaginar un electrón como una onda con infinitas trayectorias posibles y sólo cuando es medido colapsa para convertirse en una partícula concreta con una trayectoria ya bien definida -La filosofía de Heidegger es una muy mala copia de esta idea.   

Un mundo absurdo

Es vox populi que la mecánica cuántica pegó duro en la cabeza de los físicos; acostumbrados a su mundo-museo de la pura contemplación de las cosas, cada vez entendían menos lo que medían. Heisenberg, por ejemplo, se preguntaba una y otra vez "cómo era posible que el mundo fuera tan absurdo". Y se hizo famosa esa frase de Feynman al empezar uno de sus cursos: "si alguien afirma que entiende la mecánica cuántica es que no la entiende". 

Varios siglos de herencia cultural objetivista, de metafísica del "sentido común" y de "la cosa en sí", entraba en barrena ante los nuevos experimentos y experiencias. Sin embargo cabe preguntarse: ¿es la naturaleza cuática realmente absurda por negar el sentido común que desde pequeños nos han inculcado y por tanto chocar frontalmente con los prejuicios y convicciones más profundas asumidas en las escuelas desde la infancia? 

No pocas de las ideas que nos saben absurdas e incomprensibles simplemente contradicen nuestros prejuicios, convicciones y expectativas.

Me vuelve a sorprender leer como Nietzsche nos dice "cosas" como las que siguen:

"un quantum de poder, un devenir, en la medida que en ello nada tiene el carácter del ser. Los medios de expresión del lenguajes son inútiles para expresar el devenir. Forma parte de nuestra irreductible necesidad de conservación proponer siempre un mundo más grosero a partir de lo permanente, de cosas o entes iguales, o diferentes. De una manera relativa estamos legitimados a hablar de átomos o mónadas, y cierto es que el mundo más pequeño es el más duradero... No hay ninguna voluntad, hay quantums de poder que constantemente ganan o pierden poder." Fragmentos póstumos. Nietzsche. 

Nietzsche se da cuenta de que la noción de partícula, o átomo (ser indivisible), fundamental para el mundo mitológico del físico, es fruto de imaginarse que existen sujetos como causas de las medidas y apreciaciones. Estamos siempre ante la misma forma mitológica de razonar. En esto la humanidad no ha avanzada ni retrocedido nada, simplemente nos hemos vuelto más complejos y sutiles.

Entonces Nietzsche se propone pensar este devenir, estos quantums o voliciones de poder: ¿cómo son? ¿Cómo actúan? Y me parece sorprendente lo que dice; pero dejo al lector que lo busque.

 

Les 3 interpretaciones de la mecánica cuántica

Hace casi 100 años que tenemos todo un complejo edificio matemático que predice con excelente precisión las medidas que recogemos del "mundo cuántico". Pero cuando intentamos explicar qué quieren decir estas matemáticas nos encontramos con muchas paradojas e ideas controvertibles, como la idea de que un objeto puede estar en dos sitios distintos al mismo tiempo, o la idea de que el mundo cuántico está dominado por el puro azar. 

A raíz de estas problemáticas algunos científicos destaparon una sorpresa inquietante: que además de la formulación matemática que se admite actualmente es posible plantear otras formulaciones matemáticas distintas para el mundo cuántico. Y en efecto, sorprende apreciar como las medidas cuánticas admiten múltiples interpretaciones diferentes:

Como mínimo se han propuesto 3 interpretaciones: la de Copenhague -la que se acepta actualmente-, la de Bohm-DeBroglie y la de los universos paralelos de Everett.

Este es un tema que a los físicos no les gusta mucho, pero epistemológicamente me parece de lo más fascinante, pues surgen varias cosas curiosas al comparar dichas interpretaciones:

1) Las 3 interpretaciones predicen exactamente los mismos efectos y medidas. Es decir, resulta imposible obtener jamás una observación o apreciación a nivel cuántico que nos permita seleccionar una de estas interpretaciones como la cierta, para así desechar las otras dos. En conclusión: las 3 nos dicen exactamente lo mismo sobre lo real, y por consiguiente las medidas. 

2) Sin embargo, desde un punto de vista imaginario  cada una de ellas propone un mundo completamente diferente, tan diferente que las tres interpretaciones saben contradictorias entre sí: 

-La de Copenhague, admitida por el 99% de los físicos, imagina un mundo dominado por el azar y lleno de paradojas, donde una entidad cuántica es un conjunto de infinitas trayectorias posibles, todas ellas solapadas y por tanto válidas a la vez, hasta que colapsa. El colapso de la entidad cuántica consiste en la idea de que todas las posibles trayectorias se reducen a una de ellas de forma completamente aleatoria; es decir, no hay ninguna causa que determine el colapso, simplemente sucede porque puede suceder. En esta interpretación no está claro si la entidad cuántica es una onda, una partícula, algo mixto o bien primero es una cosa y luego otra. 

-La de Bohm-DeBroglie, también conocida como la teoría de la "onda piloto",  considera que una entidad cuántica es una compleja estructura física compuesta por una onda guía y una partícula que la surfea. Por tanto, ambas entidades conviven en una interacción permanente. En esta interpretación la partícula siempre anda perfectamente definida ya por sus condiciones iniciales (en equilibrio cuántico) ya por los valores que va adquiriendo la onda guía en su desplazamiento. Cuando se produce la medición de la entidad cuántica la onda guía es alterada determinísticamente, con lo cual ello modifica también determinísticamente la trayectoria de la partícula. Esta interpretación, pues, considera que tras nuestras medidas y apreciaciones existen dos entidades interrelacionades de forma determinista, con lo cual aquí el azar, en principio, no juega ningún papel. Ahora bien, se trata de un determinismo que nos resta siempre oculto porque resulta imposible conocer las condiciones iniciales de la partícula y el proceso de medición es caótico. De alguna manera, pues, esta interpretación nos dice que las medidas muestran un carácter siempre aleatorio, pero esta aleatoriedad sería aparente y fruto del caos determinista que subyace en el proceso. De algún modo parece ser un regreso a la visión estadística de la termodinámica de Boltzmann.  Ahora bien, también presenta, al menos de momento, un aspecto que no gusta nada: viola la máxima relativista según la cual ninguna información puede viajar más rápido que la luz.  

-Los mundos paralelos de Everett nos muestran una irrealidad de infinitas realidades, cada una de ellas perfectamente objetiva, determinada y separada de las demás. Por tanto, desde nuestra realidad resulta imposible detectar un mundo paralelo al nuestro, aunque hayan infinitos. Esta visión nos presenta el universo como una entidad cuántica inmensa con infinitas trayectorias, evoluciones o historias posibles y detalla como todo ellas se hacen "realidad", es decir, se objetivan y materializan generando un montón de universos paralelos en cada instante ¡No hay colapsos de onda ni nada! Así pues habría infinitos universos, y en infinitos de ellos estamos nosotros llevando una vida exactamente igual. Pero también hay otros infinitos universos en los cuales nuestra vida va por muchos otros derroteros distintos. 

Tenemos, pues, 3 interpretaciones de las medidas completamente equivalentes entre sí. Estamos ante puras analogías o simetrías matemáticas: nos "dicen lo mismo" de distintas maneras. Resulta imposible distinguirlas cuando experimentamos y medimos, sin embargo el mundo que con cada una de ellas imaginamos habría detrás parece ser completamente diferente. Hecho que puede tener bastantes utilidades, como ya ocurre con la interpretación de Bohm-DeBroglie: ha permitido descubrir mediciones típicamente cuánticas en sistemas considerados típicamente clásicos cuando estos pueden se tratados como partículas movidas por ondas piloto.

Pero hay más. Cabe destacar que bajo sus evidentes diferencias las 3 comparten ideas comunes. En especial todas consideran que medir es un afectar, interaccionar y modificar: es un generar el futuro. 

Dicho de otro modo: las 3 interpretaciones entienden que al medir se crea algo nuevo; lo que ocurre es que para la interpretación de Copenhague esta creación no obedece a nada más que a la pura probabilidad y por tanto, lo nuevo no le debe nada a lo que haya ocurrido antes. La interpretación de Bohm-DeBroglie, en cambio, entiende este "crear el futuro" como fruto de un proceso caótico y por tanto, determinista: la nueva situación es un producto directo de lo que haya ocurrido antes, aunque resulta imposible conocerlo con exactitud por su profunda complejidad. Y la interpretación de Everett entiende este crear en un sentido muy bestia: al medir e interactuar se crean infinitas realidades nuevas completamente independientes y aisladas unas de otras.

Dilema Azar - Determinismo   

En el blog ya he hablado bastante sobre tan inmenso dilema, fundamental para la filosofía y el conocimiento desde los griegos. 

También he comentado que nuestra noción de azar ha sufrido cierta evolución con el tiempo; por ejemplo no hace más de 30-40 años que se ha establecido una definición satisfactoria de "azar matemático". Y unas de las cosas que he intentado exponer en mis artículos, aunque fuera a mi manera, es que el azar y el determinismo lejos de ser dos nociones antagónicas y contrarias, son de hecho lo mismo. 

He intentado mostrar como en la mayoría de los casos el azar es un tipo exótico de determinismo pero que en su caso límite lo podemos comprender como determinismo clásico: dada una situación A entonces sólo puede suceder B ¡A no tiene otra posibilidad! 

Me hartado de señalar como la auténtica antítesis del azar es precisamente la misma que comparte con el determinismo; hablamos del famoso libre albedrío

El libre albedrío es el indeterminismo absoluto. Si estudiásemos un móvil, una entidad o un sujeto que se rigiera, sólo, por los designios del libre albedrío su comportamiento sería completamente indeterminado ¡No nos valdrían ni las ecuaciones precisas ni las probabilidades! Ningún tipo de razonamiento nos valdría de nada para prever su comportamiento, pues éste no vendría condicionado por absolutamente nada: ni por condiciones externas que le afectasen ni por sus propias condiciones que lo constituyen ¡Ni por posibilidades siquiera! Esa entidad divinamente libre no seguiría ni distribuciones gaussianas ni patrones de ningún tipo: anarquía total. 

Ahora bien quizás resulte lícito preguntarse: ¿por qué el azar admite cierto grado de indeterminación, de incertidumbre e de imposibilidad de deducir qué sucederá? Le he dado muchas vueltas al tema y de momento observo lo siguiente:

-Si un suceso A sólo tiene una única posibilidad (que se dé B), entonces su comportamiento aún siendo probabilístico está completamente determinado. Al ver A sabremos al 100% que se dará B. No hay duda ni incertidumbre alguna, porque no hay otra posibilidad.

-Ahora bien, la incertidumbre aparece cuando un suceso A tiene más de una posibilidad, acaso que se vuelva a dar A o que se dé B. Es evidente que el suceso A continua estando completamente determinado, aunque ahora por dos posibilidades. En este sentido sabemos al 100% que al darse A, entonces o se volverá a dar A o se dará B. 

-La cuestión, pues, radica en preguntarse: ¿cómo es posible que un suceso pueda tener más de una posibilidad abriendo las puertas a la incertidumbre?  Yo creo que aquí hay que pensar en las nociones de  umbral de percepción e indiferencia

Para el determinismo dadas unas condiciones iniciales concretas  el futuro inmediato está determinado, precisamente, por las condiciones de este futuro, por tanto de un estado inicial sólo puede venir un estado inmediato con unas características muy concretas. Sin embargo qué ocurre si el estado inicial percibe diferentes estados como iguales y equiposibles de ser el siguiente porque no los distingue ¿cuál de ellos escogerá si le son indiferentemente iguales?  Ciertamente no hay razón alguna para que escoja uno u otro más que el puro azar, ¿no?

Por tanto, me parece que la indeterminación del determinismo, que llamamos vulgarmente azar, es fruto de la indiferencia perceptiva que parece darse siempre entre los sistemas que interaccionan y se afectan entre sí, como bien se aprecia con la ley de Weber ya comentada muchas veces en este blog.

-Y llegados hasta aquí tenemos otro punto capital más en todo este tema; ya en otros post lo comenté: hay algo de muy perturbador que también se aprecia con las 3 interpretaciones cuánticas: un proceso completamente determinista lo suficientemente complejo puede ser descrito tranquilamente mediante un distribución de probabilidades y por tanto, se puede concebir como un proceso aleatorio; tal y como ya hizo Boltzmann por ejemplo ¡ O tal y como sucede con el lanzamiento de un dado!

Lanzamiento de un dado: De ordinario, y por nuestra arraigadísima convicción metafísica objetivista, de buenas a primeras concebimos el lanzamiento de cualquier dado como un proceso completamente determinista, lo que sucede es que este proceso puede ser más simple o más complejo según como se lance un dado: si se lanza de forma simple y controlada es fácil predecir o determinar su resultado, confirmando así nuestras convicciones objetivistas. Sin embargo, un lanzamiento lo suficientemente complejo y mezclado resulta ya imposible de determinar y sus resultados adquieren, como por arte de magia, una distribución probabilística. Por tanto, cuando el proceso de lanzamiento deviene suficientemente complejo el comportamiento "real" del dado es aleatorio, porque las medidas y observaciones siguen patrones de probabilidad, aunque podamos seguir imaginando que "en verdad" el lanzamiento sigue un proceso determinista, caótico y complejo, imposible de deducir.

Por tanto, al rumiar sobre estas situaciones y las distintas interpretaciones de la mecánica cuántica  resulta fascinante y perturbador a la vez constatar que dadas unas medidas que muestran patrones probabilísticos allí podemos imaginar que lo que sucede, más allá de las medidas y apreciaciones reales, es un proceso puramente aleatorio, sin causas ni explicación precisa, o bien es un proceso completamente determinado y por ello con una explicación precisa, pero que resulta sumamente complejo y caótico y por eso nos sabe siempre incierto. 

¿Cómo es realmente el proceso? Esta pregunta sólo la puede contestar nuestra imaginación. Sí, todo realismo es pura interpretación. A fin de cuentas, cada vez tenemos más claro que lo real es siempre un interpretar.

En fin, asombra apreciar hasta qué punto tenemos que ir admitiendo que lo único real, objetivo y común a todos es devenir, puro fluir, un permanente interaccionar, transformar, procesar, metabolizar, crear, conflicto de poderes... mientras nuestro poder imaginativo intenta atraparlo con sus groseras y toscas manos conceptuales, mientras lo transforma precisamente al pretender hacer eso. 



Apunte. Hay un aspecto de la interpretación de Copenhague que no comparto para nada; me parece trivial y superfluo, y me gustaría comentarlo como reflexión. Se trata del principio de superposición cuántica y sobre el cual se justifica la famosa paradoja del gato de Schrodinger.

Schrodinger fue capaz de interpretar matemáticamente la aleatoriedad de las medidas que se apreciaban en el mundo cuántico mediante su famosa ecuación de onda. Esta ecuación  representa, simplemente, una distribución de probabilidad: todas las posibles trayectorias que imaginamos que puede seguir un ente cuántico. Y entonces, cuando aplicamos una medida y la metemos en nuestra ecuación la onda, con todas sus trayectorias probables, colapsa en una de concreta de forma aleatoria. 

Schrodinger y otros, pensando aún como metafísicos objetivistas, se preguntaban qué significaba ontológicamente hablando que el ente cuántico, antes de ser medido, fuera representado matemáticamente mediante una distribución de probabilidades. 

Y de este pensar se estipuló el principio de superposición cuántica, que dice: antes de colapsar un ente cuántico sigue a la vez todas las trayectorias posibles pautadas por su ecuación de onda. 

¿Por qué se estipuló ad hoc semejante principio? Igual se pensaron que así le daban algo de "realismo metafísico" a la teoría. A fin de cuentas este principio parece una forma de tratar la ecuación de onda como si fuera algo real que "causara" las medidas que obtenemos. Es decir, es una forma de fantasear con que tras las medidas ha de existir un ente cuántico que anda en todos los estados posibles a la vez. 

Sin embargo, tras las medidas sólo existen mundos mitológicos. Hecho es que este principio de superposición no existe cuando tratamos las interpretaciones de Bohm-DeBroglie o la de Everett. Forma parte, pues, de la fantasía de la interpretación de Copenhague... y la inopia de Heidegger. 

De alguna manera, me parece una situación análoga a que, dado un dado que definimos mediante una ecuación de probabilidad cómo "la probabilidad de que salga una de sus caras", lo lancemos y, mientras tanto, le busquemos una interpretación ontológica a la historia: es que el dado cuando lo lanzo está mezclado y eso significa que presenta todos los valores posibles a la vez porque así lo indica esa ecuación de probabilidad que lo define. 

Pues vale, al tirar el dado este anda mezclado, porque si no se lanza bien mezclado no tendremos un lanzamiento aleatorio ¿y? ¿Cuál es el problema? Eso no implica que debamos pensar, o al menos que nos preocupe pensar, que al lanzar el dado éste ande realmente en todos sus estados posibles a la vez. ¿No es eso una chorrada? También podríamos imaginarnos que al estar mezclado el dado muestra un estado de indecisión y por tanto no presente ninguno de sus estados probables hasta que colapsa en la mesa y se determina en uno de ellos. Por tanto, ¿por qué no pensar más bien que el estado de un ente cuántico antes de ser medido no sea nulo, de vacío, nada?    

Me parece que este principio de superposición es fruto, no de una interpretación matemática de la realidad y por tanto de los datos, sino de una interpretación ontológica de las matemáticas empleadas para gestionar los datos. En este sentido me parece harto superfluo, como las supuestas paradojas que conlleva. 

Y cuando leo noticias como éstas (ver aquí) pienso: -¡Vaya, vaya, otros que han visto a Zeus cabreado!-

  





  








 

  






  

   






domingo, 17 de julio de 2022

Roger Penrose, el físico-matemático platónico


La gente conoce bastante bien a Stephen Hawking, pero no a Roger Penrose, premio Nobel de física 2020. 


Sin embargo, cuando Penrose publica algún trabajo suele tener un impacto mediático significativo, incluso al proponer ideas radicalmente especulativas capaces de chocar con el consenso científico del momento. Y sí, en tales casos muchos científicos lo critican, pero con la boca pequeña, pues su imponente trayectoria les da mucho respeto.



Penrose y Hawking fueron buenos amigos y descubrieron como las ecuaciones relativistas podían generar singularidades espaciotemporales, las cuales permitían predecir las supuestas condiciones iniciales  del Big Bang, la existencia de agujeros negros y agujeros de gusano, o incluso tratar de algún modo un supuesto final del universo. 

Sin embargo, considero a Penrose, intelectualmente hablando, mucho más interesante que Hawking; aunque su pensamiento -platónico confeso- y el mío sean, en cierto sentido, antitéticos.  

Así como Platón, que fue una mente profundamente geométrica, también Penrose confiesa visualizar la realidad como pura geometría. Cree en la existencia de ideas inhumanas  y objetivas que, sin embargo, ciertos humanos podemos intuir ¡Y que la vida se estructura a través de estas ideas singulares y eternas! En tal sentido, Penrose tiene una visión radicalmente ética de la existencia.


Estos días tuve una pequeña sorpresa, por así decirlo. Leyendo por ahí me tropecé con "el último" trabajo de Roger Penrose sobre cosmología. Lo presentó en 2010-2011 más o menos. 

Ya lo conocía de oídas, por algún titular, pero poco más -y, la verdad, pensaba que iba de otra cosa. Estos días he escudriñado con mayor detenimiento ese trabajo.

¿Por qué me ha sorprendido la propuesta cosmológica de Penrose? 

Precisamente por aquella época (2010-2011) y a raíz de la creación en el laboratorio del primer condensado de Bose-Einstein de fotones recuerdo que también me planteé una idea similar a la suya, pero sin apelar a la geometría. Y ambas hipótesis terminan girando sobre ciertas peculiaridades de la luz, que me parecen dignas de comentarse. 

Ver la noticia aquí del superfotón.

En cualquier caso, cabe reconocer que si esta propuesta cosmológica de Penrose goza de cierta difusión es porque, precisamente, la ha presentado y defendido Roger Penrose. Ahora bien, a una importante mayoría de cosmólogos, por varias razones, no les gusta nada y la toman como una excentricidad teórica que, en el mejor de los casos, aún andaría muy verde. 

Algunos incluso denuncian que rompe fundamentos básicos de la física, como la unitariedad de la mecánica cuántica alrededor de un agujero negro: Penrose, la mar de tranquilo, considera que tan básico principio ahí no se aplica, hecho que ha convulsionado a más de uno. Y aunque tan controvertida postura se puede justificar apelando a la paradoja de Polchinsky, Penrose dio otra razón diferente y bastante "sui generis": la reducción objetiva orquestada.

A nivel personal, de todo esto saco en claro que nos encontramos ante discusiones aún enraizadas en ámbito estricto de la pura mitología; en concreto de la fantasía matemática. Hecho que, para mí, no le quita interés; quizás más bien lo contrario. A fin de cuentas, vale cuestionarse: ¿acaso jamás saldrá nuestra mente de sus mitos y fantasías, sus interpretaciones e imaginaciones?

¿Qué me atrae del modelo de Penrose?

Es un intento personal de dar una cierta visión "perfecta" de la existencia, por así decirlo; un intento de mostrar como la vida se glorifica a sí misma una y otra vez. 

Aquí no me escondo y confieso tener muy arraigado este prejuicio: que la existencia debe ser, en cómputos generales, perfecta: ni pierde ni gana nada, ni le falta ni le sobre nunca anda ¡Representaría el summum de la satisfacción, la autosuficiencia y el equilibrio!  

Pues lo contrario, pensar la vida como algo deficiente en algún sentido, ya sea porque pierde ya porque gana y necesita ganar siempre más, nos lleva directos a reducir la vida al absurdo; conclusión que rechazo por incoherente, tal y como ya he comentado otras veces en el blog, del mismo modo que voy a rechazar que 1=2, o bien, que raíz de 2 pueda expresarse como un valor racional. 

Pero hay otra razón. 

Con este modelo se intenta justificar mecánicamente la única verdad que, a fin de cuentas, tenemos a mano: que todo fluye y cambia siempre -Pues la vida nunca es propiamente nada  sino eterno devenir. 

En efecto, el pensamiento de Penrose no se cuelga ni en un principio indeterminado ni se descuelga en un final indeterminado ¡Es un intento de concebir el "devenir" como eterno! Y eso me atrae.  

Sin embargo para mucha gente, Platón mismo por ejemplo, el combinar ambas ideas (perfección/equilibrio y devenir/cambio) suele sonar profundamente contradictorio; y siendo honestos también a Penrose le ocurre; de aquí su "necesidad psicológica" de buscar un mecanismo que justifique el devenir eterno, tal y como también hizo ya Platón. 

Yo, en cambio, siempre me he tomado muy en serio esa máxima heraclitiana que dicta:

"cambiando descansa"


La visión cósmica de Penrose

Bien, pues, estamos ante un modelo del universo que, de forma esquemática y a vuelapluma, dice lo siguiente:

Para estudiar el pasado, por el momento, sólo podemos tirar del análisis del fondo de microondas. Y éste nos muestra un universo primitivo sumamente isótropo ¡Toda su energía muestra un distribución altamente homogénea! Es decir, a simple vista el universo primitivo parece estar en un estado de alta entropía. ¿Qué significa eso? Que debería reposar en un estado muy estable, reposado y tranquilo ¡Prácticamente sin evolución! 


Fondo de radiación de microondas

Sin embargo, resulta evidente a día de hoy que de algún modo el universo no estaba nada estable porque se expandió rápidamente, enfriándose y perdiendo densidad a un ritmo vertiginoso mientras iba generando estructuras masivas cada vez más complejas; como la propia vida en la Tierra. 

Pero es que no sólo evolucionó, marcando un evidente "paso del tiempo", sino que en el fondo no cambió: el universo visible  siempre ha mantenido la distribución de energía más o menos igual de isotrópica y homogénea que al principio ¿Cómo se come semejante contradicción? 

Sí, nos enfrentamos ante una ambivalencia difícil de explicar y justificar. 

Lawrence Krauss, aquí por ejemplo, nos cuenta que se debe a que la energía del universo es siempre 0 ¡Nula! ¿Por qué? 

A su entender el universo sería, en esencia, "nada". Y cuando dice "nada" quiere decir "vacío cuántico": energía "positiva" y "negativa" balanceándose constantemente. 

De aquí muchos, como él mismo, han fantaseado empleando  la teoría de cuerdas que de esa "nada" puede nacer cualquier cosa, dando alas al modelo de los multiversos

Y sí, para quienes conocemos un poco la historia del pensamiento occidental escuchar tan exótico modelo nos deja patidifusos porque es, exactamente, el mismo modelo que ya propuso Anaximandro con su "vacio" hace 2.600 años, al que llamó Apeiron, y sus infinitos mundos. 

No tengo dudas de que semejante observación histórica nos abre muchas preguntas sobre cómo funcionan nuestras capacidades cognitivas al modelar e interpetar cuanto vivimos.

Sea como sea, y recordando que el modelo multiverso tiene completamente seducidos a una importante legión de físicos, vale destacar que Penrose no se ha quedado atrapado por sus encantos. Sí, el inglés se ha apartado de la teoría de cuerdas. No se fía de esa belleza matemática. Sin embargo, tiene muy claro que el "nuevo" modelo a confeccionar debe responder sobre dicha ambivalencia: 

¿por qué la energía del universo está siempre balanceada, siendo por tanto nula, y aún así evoluciona? 

Para lidiar con tamaño dilema Penrose propone medir la entropía del universo primitivo separando los 20 parámetros geométricos de la relatividad general en 2 tipos de curvaturas distintas: 

10 de estos parámetros corresponderían a la geometría de Einstein (de Ricci); se trata de la curvatura que actúa en presencia de materia + radiación. Y dada la gran homogeneidad que presentaba la radiación de fondo de microondas Penrose comenta que sus valores deberían reflejar un estado de gran equilibrio, es decir, prácticamente de máxima entropía. 

Y en efecto, la curvatura de Einstein del universo primitivo es 0, es decir, el universo era plano: geometría que conlleva una entropía máxima. 

En definitiva, pues, confirmar que el universo es plano (en la geometría einsteniana) es lo mismo que confirmar que la distribución de la materia+radiación es altamente homogénea e isótropa porque la energía positiva y negativa andan balanceadas y, entonces, podemos afirmar que el universo se rige por el famoso principio cosmológico. Sí, estamos ante conceptos sinónimos. 




Los otros 10 parámetros geométricos, que son los que reinterpreta Penrose para cimentar su modelo, corresponderían a la geometría de Weyl. Se trata de una geometría conforme que parece actuar siempre, aunque sólo haya radiación (fotones) o, incluso puro espacio vacío y sin nada. Además Penrose identifica esta curvatura con la aparición de los efectos "desestabilizantes" de la gravedad sobre la radiación + materia. 

Por tanto, si el universo fuera pura radiación, ¡o simple espacio vacío!, sería la única curvatura que actuaría, mientras la de Einstein desaparecería.

Además, una curvatura de Weyl nula, a diferencia de la de Einstein, indica un alto grado de inestabilidad.

Eh aquí la primera hipótesis de Penrose: 

Según Penrose en el principio de los tiempos, en el Big Bang quiero decir, la curvatura de Weyl tenía que ser o nula o casi nula (finita). Con lo cual esta altísima inestabilidad geométrica sería la causante de toda la evolución cósmica que observamos des entonces. 

Esta inestabilidad geométrica primordial conllevó la aparición de efectos gravitacionales, que computan como energía negativa a nivel cosmológico, los cuales propiciaron la aparición de materia; al principio simple y luego cada vez más compleja, más pesada, gravitacionalmente más concentrada, mientras la geometría einsteniana se expandía para mantenerse plana e isótropa y, así, conservar el principio cosmológico -Entramos en la 1ºetapa inflacionaria

Por tanto, aquí Penrose nos propone un modelo puramente geométrico que intenta detallar cómo el universo ha mantenido una distribución homogénea a lo largo del tiempo (una curvatura einsteiniana plana) y sin embargo ha evolucionado de un estado entrópico muy elevado a otro mucho mayor si cabe a través de un incremento de concentraciones gravitacionales.


Y con este modelo entre manos Penrose se atreve a ir mucho más allá ¡Hasta el horizonte final del universo visible!

Historia del universo

La comunidad científica tiene bastante clara la historia del universo, el cómo ha evolucionado a lo largo de los últimos 13.800 millones de años, debido a la fuerte creencia en las leyes y principios que utilizan para comprender los datos que van recolectando.



Esta historia es, curiosamente, bastante simple: antes de la aparición del fondo cósmico de microondas, al menos por el momento, no hay forma de "ver" qué sucedía realmente. Por tanto, sólo cabe especular. Y la especulación se ha centrado en el modelo inflacionario de Alan Guth&Co, que dice: 

El Big Bang fue el momento en que apareció la curvatura de Einstein, que de la nada se expandió de forma exponencial, pero manteniendo siempre una curvatura nula al balancear constantemente el incremento de las concentraciones gravitacionales (energía negativa) con la energía positiva (radiación+materia+expansión del espacio), y así garantizar el principio cosmológico a lo largo del proceso de inflación. 

En base a este modelo inflacionario se especula que el fondo de microondas, y que como hemos visto arriba hoy usamos para estudiar el universo visible primitivo como un "todo", tuvo que aparecer 360.000 años después del Big Bang; mucho después de que las 4 grandes fuerzas emergieran y cuando la materia, en su forma más básica (electrones, protones, etc), llevaba ya un tiempo pululando entremezclada  indistintamente con los fotones de la luz en medio de un inmenso océano de plasma opaco. 

De hecho, se ha determinado como origen de este fondo de microondas al momento en que las partículas básicas de la materia adquieren masa efectiva; es decir: se desacoplan de la radiación al dejar de moverse  a la velocidad de la luz como fotones. Sólo entonces pudieron recombinarse entre ellas para generar hidrógeno, el átomo más simple. Y el universo pasa de verse como un inmenso océano de plasma opaco a un universo visible de materia y radiación bien diferenciadas pero en intercambio constante. *Penrose señala que el espacio-tiempo debería empezar aquí, en este instante, al desacomplarse materia y radiación, porque sólo con tal desacoplo existen "relojes" naturales -lo veremos en detalle más adelante.

Durante millones de años esta inflación primigenia prosiguió, aunque desacelerándose, mientras esos primeros átomos generaron patrones y estructuras cada vez más complejas: átomos más pesados, moléculas, polvo galáctico, asteroides, planetas, estrellas y con éstas, aparecieron ya las primeras galaxias y los gigantescos cúmulos galácticos. Mientras tanto ese fondo cósmico de microondas, recuerdo de la separación entre la materia y la radiación y que lo permeaba todo, se fue enfriando. 

Sí, el universo se hacía más grande, más frío, con estructuras gravitacionales cada vez más y más pesadas, complejas, redundantes; volviéndose más "espumoso", es decir, mucho menos denso ¡Y sin embargo continuaba siendo igual de plano, homogéneo e isótropo! El principio cosmológico restaba intocable gracias a la inflación.

Universo a gran escala

Pero algo muy curioso ocurrió 8.000 millones de años después del Big Bang: el universo volvió a experimentar una nueva aceleración en su expansión de la geometría einsteniana ¡Una aceleración que aún perdura hoy en día y no tiene visos de aminorar!  

Para explicar la causa de esta nueva aceleración se introdujo la famosa noción de "energía oscura".

-En física cualquier aceleración se concibe como una fuerza- Eh aquí el dogma básico de toda la física desde Newton. 



Por tanto, al aventurarnos a mirar hacia el horizonte futuro "creemos" que el universo seguirá expandiéndose indefinidamente, con lo cual se volverá cada vez más grande, más viejo, más frío, con estructuras gravitacionales más masivas y por consiguiente, mucho menos denso ¡Pero seguirá también igual de homogéneo y plano! ¿Qué significa eso?

Bueno, aquí de nuevo cabe especular ¡Y quizás podríamos especular que da gusto puesto que no son muchas las certezas inpepinables que nos lo impiden! Sin embargo, la tendencia fácil, directa, conservadora nos lleva a proyectar el futuro del siguiente modo: 

Con la expansión acelerada de la geometría de Einstein las galaxias se irán separando unas de otras cada vez más rápido hasta convertirse en islas solitarias, aisladas del resto de universo, donde la luz de otras galaxias ya jamás las podrán alcanzar al alejarse más rápido que la propia luz. 

Pero a la par se pronostica otro fenómeno galáctico capital: el futuro será dominado por gigantescos agujeros negros, y algunos incluso se atreven a especular con la posibilidad de que éstos anden interconectados entre sí mediante agujeros de gusano ¡Como si tales monstruosidades fueran meras partículas cuánticas entrelazadas!  

Los agujeros negros

 Cada vez se tiene más claro que los agujeros negros serían fenómenos relativamente habituales en las galaxias. Se forman, de ordinario, con la explosión de supernovas

una estrella masiva y envejecida después de agotar su combustible colapsa sobre sí misma. Este colapso provoca que la gran masa de la estrella se concentre en una región "muy pequeña" del espacio y por puro peso en bruto lo "revienta y perfora", literalmente, generando una singularidad espaciotemporal: la atracción gravitatoria se vuelve tan bestial que nada de cuanto "logra" caer dentro del horizonte de eventos de la singularidad puede ya salir por sí mismo jamás: ni radiación, ni materia, ni entropía ni información ¡Nada sale de ahí por su propio pie! Con motivo se le llama agujero negro.



En efecto, a bote pronto y visto desde fuera un agujero negro no es más que un sumidero de energía y entropía, un frío pozo infinitamente profundo, una disposición completamente pasiva y receptiva ¡Cualquier intento de comprensión física colapsa ahí dentro! Pues no hay nada que comprender, ni conocer, ni sacar de ese remolino de los recuerdos cósmicos. 

Además, vale remarcar, estamos ante uno los fenómenos galácticos supuestamente más estables y duraderos del universo ¡Cuánto más mayores se hacen más estables son! 

Y muchos son los pronósticos que indican que los agujeros negros irán creciendo durante billones de años, fusionándose entre ellos y adueñándose de las galaxias hasta desplumarlas de sus estrellas, su materia y radiación. Según Penrose terminarán por limpiar el universo de cualquier mota de polvo.  

Este es un pronóstico plausible en base a lo que conocemos y nos imaginamos, pero también harto radical ¿Seguro que si el universo evoluciona hacia la era de los grandes agujeros negros ya no quedará ni una sola mota de polvo?

Penrose conjetura que así será, y que si quedara algún remanente de materia pululando libremente entre  los colosales agujeros negros llegará un momento en el que, a causa de la brutal aceleración alcanzada por la geometría einsteniana durante esa oscura era, dicho remanente se estripará, desintegrándose en forma de radiación ultrafría. Y en esto son muchos los físicos que concuerdan: una brutal expansión del espacio, como se supone que sufrirá el universo dentro de billones de años, podría descomponer tranquilamente toda pizca de materia. Sin embargo, no hay mucho de confirmado al respecto. 

En cualquier caso, el pronóstico con que, en general, se fantasea más o menos es: 

después de trillones de años sólo quedarán agujeros negros inimaginablemente masivos, quizás interconectados a través de túneles de gusano, y distribuidos de forma homogénea e isotrópica a lo largo de un cosmos inmenso y gélido, que muy rápidamente se vuelve cada vez aún más grande y más frío. 

Y luego el fondo de radiación cósmico, después de pasar un cierto tiempo en equilibrio térmico con los ultrafríos agujeros negros que permea, empezará a enfriarse aún más que ellos por la expansión cósmica. 

Cuando eso suceda se hará notorio un efecto cuántico pronosticado hace años sobre los agujeros negros: empezarán a emitir energía a discreción. 

La radiación Hawking devendrá, pues, dominante en el universo cuando el fondo de microondas sea más frío que los agujeros negros, haciéndose responsable de la "evaporación" de todos ellos, al convertir su masa en radiación ultrafría por la desaforada expansión cósmica que estará sufriendo ese universo tardío. 

Cabe añadir a todo esto que hablamos de un proceso de "evaporación" lento, muy lento, lentísimo: durará mucho más que la propia edad que tendrá ya el universo cuando empiece dicha evaporación.  

El enigma de los agujeros negros

Cabe ser honestos: de los agujeros negros no sabemos prácticamente nada, aunque nos imaginamos un montón de cosas. Para empezar no sabemos ni si existe la misma radiación de Hawking, pero nos imaginamos que sí, con lo cual pensamos los agujeros negros como si ésta existiera y fuera tal y como la tenemos teorizada. ¿Y como la teorizamos?

En los años 70 Hawking imaginó que, si bien es cierto que nada de lo que cae en un agujero negro puede salir jamás por su propio pie, sí podría salir por pura aleatoriedad

La radiación de Hawking es estrictamente aleatoria, puro ruido, y en promedio expresa la temperatura del agujero negro según su tamaño, masa, y poco más. 



Sin embargo, Hawking en seguida reconoció un problema gordo con esta radiación suya: el agujero negro ha estado engullendo un montón de información del universo durante billones de años, mientras actuaba como reservorio al guardarla; pero si la radiación de Hawking empieza a evaporar el agujero negro, entonces, ¿cómo se libera esta información? ¿A través de la propia radiación?

Se hicieron los cálculos y no daban: la radiación de Hawking parecía insuficiente para liberar toda la información engullida por el monstruo ¡Visto con los ojos del británico los agujeros negros parecían máquinas de eliminar información del universo! Hecho que, en principio, viola leyes fundamentales de conservación. 

Desde entonces este dilema anda encima de la mesa. De momento se han propuesto diferentes posibilidades, incluso la idea de que los agujeros, en efecto, violan dichos principios físicos y son máquinas de eliminar información, y por ende, entropía. De hecho, como ya comenté arriba, Penrose lo defiende con absoluta tranquilidad para sustentar su modelo y eso no gusta a gran parte de la comunidad científica. Sin embargo, a nivel especulativo aún sigue siendo una opción. 

Personalmente, tengo mis reservas con  el principio de conservación de la información y la entropía. Me parece un principio muy delicado y con más recovecos que un queso gruyere. 

El dilema de la información y la entropía

Al estudiar un sistema abierto, es decir un "sistema local", como una galaxia con sus agujeros negros por ejemplo, la entropía y la información del sistema tienden siempre a aumentar; y es precisamente por este aumento que "se produce" un devenir y se identifica la flecha del tiempo hacia donde evoluciona el sistema: de una galaxia en formación, joven, llena de brillantes y activas estrellas violentas en crecimiento a otra de vieja, agotada, llena de agujeros negros masivos y apagándose: 

¡Se trata de un proceso irreversible: no hay manera de rebobinar el proceso, tirar para atrás hacia el pasado y rejuvenecerla! 

Sin embargo, en cómputos generales, la entropía y la información deberían de ser siempre constantes, como bien expone Adrián Costelo en su blog; con lo cual desde una perspectiva global el universo debe haberse mantenido estable, inamovible, sin envejecer ¡Como si no hubiera pasado absolutamente nada! 

Es decir, desde una perspectiva global el estado cuando la galaxia se forma y crece resulta idéntico e indistinguible al estado cuando la galaxia se agota vieja y languidece en silencio ¡No hay aumento ni de entropía ni de información! ¡No hay flecha del tiempo! 

En cambio, como hemos visto, desde una perspectiva parcial, visible y local la diferencia entre ambos estados resulta notoria y crucial ¡Ahí sí hay una flecha temporal y evolutiva clara: de joven a viejo!

Sí, estamos ante una paradoja; la vieja paradoja de Loschmidt. 

De hecho podemos "forzar" esta famosa paradoja para llevarla hasta la base misma de la termodinámica estadística y analizarla del siguiente modo: 

Cuando tomamos un recipiente de agua en equilibrio térmico según Boltzmann éste admitirá una multiplicidad de diferentes microestados equiprobables, el número de los cuales definen precisamente la entropía máxima del sistema macro, es decir, global ¡Definen su equilibrio! 



El recipiente de agua, pues, irá cambiando de microestado a través de una evolución concreta aunque casi imposible de predecir, como nos muestra el efecto browniano ¡Pero que siga una evolución concreta no afectará para nada al macroestado global! Éste seguirá en reposo, con máxima entropía y como si el tiempo estuviera parado, porque el macroestado ignora por completo qué microestados se van sucediendo; ignora cualquier evolución browniana que se produzca a nivel micro ¡De hecho no le importa! Pues ni le afecta ni altera.




Recorrido de una molécula en un recipiente de agua en equilibrio térmico

Nos encontramos, pues, en un punto delicado: 

cuando desde una perspectiva micro se produce una evolución local de microestados ahí se aprecia un incesante intercambio de energía, con lo cual cabe pensar que ahí se producen aumentos "locales" de entropía. Hecho que nos lleva a preguntarnos: ¿Acaso el tiempo no "debe de pasar" para las moléculas o partículas que componen el sistema micro a través de una flecha  temporal bien marcada? 

Ahora bien, desde una perspectiva macro la entropía y la información siguen siendo exactamente la misma ¡Nada ha variado! Des del macroestado no se aprecia evolución alguna, sino pura calma chicha ¡La entropía se mantiene máxima! 

Así pues, ¿a dónde ha ido a parar la supuesta entropía "local" generada por la particular evolución de los microestados? ¿Acaso se ha perdido información? ¿Ha habido alguna vez información nueva creada? 

Parece como si para explicar y certificar la 2n ley de la termodinámica sea necesario violarla ¿Será eso absurdo?

A bote pronto pienso que aquí parecen haber 3 opciones:

1) Que los constantes intercambios energéticos a nivel local entre partículas o microestructuras, los cuales provocan una clara evolución en los microestados del sistema, ni generan entropía ni por tanto, información. Pero entonces, como hemos visto, estamos ante una clara violación del 2º principio de la termodinámica ¡Sin embargo nos da igual llegar a semejante absurdo!  

Esta es la opción teórica que los físicos aceptaron. Consideraron que el comportamiento de las partículas a nivel local es atemporal y reversible y por tanto se rige, exclusivamente, por las leyes cinéticas; es decir, el puro determinismo mecánico de Newton. Así pues, la entropía no va con ellas. ¿La razón? 

Pensaron que, dado que a nivel global o macro no hay aumento de entropía, a nivel local tampoco lo puede haber: -¡La entropía tiene que ser una cualidad intrínseca y objetiva de la realidad y por tanto debe considerarse sumativa: si en cómputos globales no hay incremento es que no hay incrementos locales que sumen- Afirmaban para justificarse. 


2) Quizás haya otra forma de interpretarlo: 

el caso anterior podría no violar la 2n ley de la termodinámica si a nivel local el microsistema ni estuviera compuesto por elementos materiales ni lidiara con materia de ningún modo. Es decir, cuando las particulas del microestado se comportan como partículas lumínicas aisladas: acaso un gas de fotones

Aquí cabe especular en el mismo sentido que lo hace Penrose y pensar que sin materia, sino pura radiación, las nociones de "incremento de entropía", "evolución", "flecha del tiempo" carecen de sentido porque el tiempo no existiría a nivel local al no haber relojes locales para percibirlo y medirlo. Y de hecho es lo que quizás ocurre al formarse un superfotón, aunque no he realizado ningún cálculo al respecto.

3) Y puede que haya una tercera forma de interpretarlo, perfectamente complementaria con la anterior:

pensar que los constantes intercambios energéticos en un microsistema compuesto de materia sí respetan la 2º Ley de la termodinámica y generan micro entropía, es decir, información a nivel local, pautando una evolución determinada a ese nivel. Y sin embargo, no se aprecia ninguna evolución a nivel global porque ahí no se "percibe" ningún cambio. 

La idea aquí es considerar la  paradoja como pura cuestión de perspectivas

-Desde una perspectiva micro (local) ninguna evolución local se comportará de forma reversible, ni desembocará en un final definitivo, dado que en cada momento debe de expresar un cierto incremento de entropía. Es decir, a nivel local siempre hay dirección temporal en un microsistema material ¡El fluir es permanente! 

Dicho de otro modo: aquí las distintas partes materiales del microestado se perciben diferentes, desiguales y por ello en desequilibrio entre sí, con lo cual siempre nace entre aquellas que se perciben "ricas", y las que se perciben "pobres", un conflicto o intercambio energético permanente; así van pasando microestados y se genera una historia, un recorrido, una evolución. ¡Pero es una evolución ciega! No tiene ningún destino con lo cual resulta imposible de predecir al dedillo. 

¡Son botes perdidos en alta mar a merced de las olas!   

-Sin embargo, desde una perspectiva macro (global) no hay diferencias entre un microestado u otro, porque se perciben como idénticos, equiprobables, y por tanto, es como si no estuviera pasando absolutamente nada cuando "se van intercambiando unos por otros" al buscar incrementar la entropía local. 

En consecuencia, a nivel global no habría dirección temporal ni evolución alguna, ni historia; simplemente ahí no está ocurriendo absolutamente nada. No se aprecia ningún follón... ¡Y el mar anda la mar plano!

Quiero decir, el macrosistema en equilibrio jamás aplica ninguna voluntad superior sobre sus microsistemas con la que determinar al dedillo su comportamiento ¡El macrosistema simplemente reposa plácidamente creyendo que no pasa nada, porque no puede percibir ni distinguir el montón de cosas que pasan! Desde su perspectiva global lo que sucede o no sucede resulta completamente indiferente.

Una propiedad del poder es no sufrir por lo que sucede por percibirlo irrelevante ¡Todo lo fuerte posee el don del menosprecio y así vive tranquilo a su aire!

Lo dicho conlleva que las evoluciones locales sean precisamente eso: evoluciones locales ¡Cómo pequeñas riñas! Y como tales, durarán lo que durarán... y luego podrían repetirse tranquilamente, dado que en cómputos generales no habría pasado nada ¡Son incapaces de afectar y alterar en nada a nivel global! 

Ahora bien, lo que no harían jamás sería revertirse o parar, ya que desde una perspectiva local se genera constantemente entropía. 

En definitiva, esta tercera opción es perfectamente complementaria con la segunda opción según se den o no las condiciones. Y es una opción cualitativa: parte de la idea de que el valor de las magnitudes físicas es fruto de las perspectivas, de los umbrales de percepción, y no de hipotéticas cualidades ocultas de los sistemas estudiados, como siempre han defendido los idealistas. 

La entropía no sería una magnitud objetiva, constituyente y universal de los sistemas que descubramos midiéndolos. 

Bajo tales motivos, pues, disiento de las posturas idealistas, como termina siendo en el fondo la del propio Penrose por ejemplo, quien aún creen en un mundo de valores objetivos y universales que reflejarían las cualidades "esenciales" de cuanto percibimos y podemos jamás percibir; de aquí esa propuesta suya del reduccionismo objetivo. 

Mi postura tiende hacia el perspectivismo antimetafísico de Nietzsche, aunque él lo usara para diseccionar la moral occidental, es decir, las teorías occidentales sobre los "sistemas humanos". Pero al final todo es lo mismo: estudiar sistemas y dinámicas, comportamientos y evoluciones, historias y procesos... 

Intentamos modelar el devenir para que tome cuerpo y podamos vestir la Verdad.

En fin, mediante estas dos últimas opciones expuestas quizás sea factible esclarecer la vieja paradoja de Loschmidt, y quizás también otras que corren por ahí: como la marxista, a nivel social, y según la cual las desigualdades terminarán por llevarnos hacia el fin de la historia con el comunsimo; o la existencia del Dios moderno como garante de una hipotética razón de ser para la existencia que lo determina todo, absolutamente todo, desde lo más grande a lo minúsculo.

De hecho, se nos abren las puertas a imaginar una idea absolutamente antiplatónica, antimoderna, antiidealista:

Todo macrosistema en reposo sería radicalmente ciego, insensible, grosero, estúpido e inocente por poderoso... y ahí tendríamos al universo: el más bestia de todos los macrosistemas.  


 El final del universo visible. Mi propuesta

Más allá de vete a saber qué ocurre con la entropía engullida por un agujero negro y su supuesta evaporación, la idea de fondo es que el destino final del universo visible, desde nuestra perspectiva humana,  corresponda con lo que hace cien años se llamó "la muerte térmica del universo": 

Un espacio inimaginablemente grande, viejo pasivo y desolado donde sólo permanece una radiación sumamente fría cuya longitud de onda resulta ser tan inmensa que abarca miles de años luz de distancia. Sin embargo, a efectos globales, el universo continuaría mostrándose como plano, isotrópico y homogéneo. 

Sí, de algún modo el universo no habría cambiado absolutamente en nada desde una perspectiva global, aunque a ojos humanos la evolución hacia la descomposición total resultaría funestamente evidente.

Y ante este panorama me puse a fantasear con la idea de que parecían darse las condiciones necesarias para que toda esta radiación residual formada por incontables fotones de una frecuencia extremadamente baja terminarían formando un condensado de Bose-Einstein fotónico. Es decir, se daban las condiciones para que el universo visible se convirtiese en un superfotón. 

¿Qué significaba eso? 

Que toda la energía del universo visible condensaría en un superfotón de forma instantánea, impulsando con ello un nuevo Big Bang: una especie de reset del espaciotiempo, de la evolución y la flecha del tiempo; una recombinación para una nuevo inicio a nivel local, es decir, a nivel del universo visible... pues a nivel global el universo, en todo momento, siempre habría estado igual: plano, homogéneo y tranquilo ¡Durmiendo! 

Sí, la idea es simple: la expansión o reducción de la curvatura de Einstein a través del cual se pauta, precisamente, toda la evolución del universo visible con la aparición o destrucción de estructuras masivas, parece ser, visto así, un fenómeno local y no global. 

Hecho es que el universo no se entera de nada ¡El siempre sigue plano! Toda su energía anda siempre homogéneamente distribuida. 

La visión final de Penrose

Por su parte Penrose, me parece a mí, plantea algo similar al final de la vida del universo visible, pero lo enfoca de forma geométrica: 

cuando el universo visible sea un gigantesco desierto desolado sólo permeado por una fría radiación de frecuencia extremadamente baja la geometría Einsteiniana, que se había estado expandiendo desde el Big Bang, desaparece porque ya no queda materia ¡Pues sólo actúa donde hay materia! Y entonces, en medio de esa radiación cadavérica sólo actuará la geometría conforme de Weyl ¡Tal y como ya había sucedido también al principio de Big Bang!

Por consiguiente, a nivel geométrico, dice Penrose, el final del universo visible y el principio son dos momentos geométricamente equivalentes.

Sin embargo, Penrose, que aún cree en las cualidades objetivas de las cosas como hemos dicho, considera que el estado final y el inicial del universo visible, período al que llama un eón, no son exactamente iguales, simplemente serían similares al compartir la misma geometría. 

En este sentido afirma que el principio de un nuevo eón lleva las marcas del eón anterior; unas marcas que se podrían encontrar "fosilizadas" en el fondo de microondas y por tanto recogería la historia del final del eón anterior. 



Desde mi parecer, pero, tiendo a imaginarme cómo al sufrir un reset espacio-temporal cuando el universo se vuelve pura radiación, entonces el bombo de la existencia simplemente gira de nuevo, eliminando cualquier trazabilidad para seguir mostrando un universo igual de plano, homogéneo, isótropo y donde sólo aparecerían pareidolias.

En este sentido, que el fondo de microondas no tenga marcas, ya en el sentido Penrose o en el sentido que también pronostican las teorías de multiversos sería, a mi ver, un indicio de reinicio: 

La baraja cósmica se ha vuelto a repartir. 




La magia de la luz:

La luz es especial. Platón, por ejemplo, la identificó directamente con el mundo de las ideas; un atrevimiento muy inquietante como veremos en seguida. 

Una característica fundamental de los fotones (la luz) es que, como hemos dicho ya repetidamente,  no les afectan para nada el espaciotiempo. Es decir, para la luz el tiempo no pasa y las distancias no existen. 

Sólo con la aparición de la masa, es decir la materia, aparecen las distancias y los relojes. Con motivo Penrose defiende que el tiempo empieza con el desacoplamiento de la radiación y la materia cuando se produce la radiación de fondo. O yo comento la posibilidad de que un microsistema de partículas de luz (un gas de fotones) no atienda al incremento de la entropía al no percibir ningún tiempo, pues ahí no hay relojes locales.

Un reloj es el intercambio entre radiación y materia, de modo que sin materia no hay intercambio, sin intercambio no hay reloj y por tanto tiempo: La 2n ley de la termodinámica queda en suspenso.



Hecho es que si pudiéramos construir un cohete capaz de llevarnos a la velocidad de la luz hacia una estrella próxima, por ejemplo Alfa Centauri (a 2 años luz de distancia), voltearla y regresar, para la gente de la tierra hubiéramos tardado 4 años en hacer semejante "paseo"; sin embargo para nosotros habría sido un viaje instantáneo ¡Sí, instantáneo! 

Ello nos lleva a una idea, siendo honesto, inquietante: 

si nos convirtiéramos en seres de luz nos volveríamos potencialmente eternos y omnipresentes ¡Hasta que chocáramos con materia, que nos absorbería volviéndonos al presente mientras no recordaríamos ya nada, pues para nosotros habría sido sólo un instante! 

Y sí, digo inquietante porque Platón parece hablar de algo por el estilo cuando expone la reencarnación del alma y la teoría de la reminiscencia; sinceramente, no sé muy bien como tomármelo. Quizás sea casualidad...

En cualquier caso, vemos como la luz se pasa por el forro el espaciotiempo. ¿Que el universo visible crece de forma exponencial? A la luz no le preocupa, pues no percibe tal crecimiento y tarda lo mismo para hacer el viaje ahora más largo: ¡un sólo instante! 

Que hay un gas de fotones con energías radicalmente muy diferentes, en el fondo a ellos les importa un comino, pues se perciben entre sí como iguales, dado que la energía de un fotón viene dada por el espaciotiempo (frecuencia y longitud de onda) ¡Y ellos no perciben nada de eso! En efecto, esta "diferencia de energías entre distintos fotones" sólo afecta a los sistemas con masa, y así lo vemos en el efecto fotoeléctrico o la radiación de un cuerpo oscuro.

Por dichos motivos Penrose defiende que los fotones, en ausencia de masa, se rigen por la curvatura de Weyl, la cual presenta una característica muy peculiar:

Es una geometría conforme: no atiende a escalas. Es decir, no diferencia 1 metro de 1 km, o 1 segundo de 10 días. En base a tal geometría no hay escalas en las medidas. Por tanto esta geometría, de algún modo, elimina toda entropía métrica, es decir, fruto de un mero crecimiento de escala ¡Que es el tipo de entropía que parece dominar en nuestro universo visible! Pues en el fondo si vemos que el tiempo pasa es un reflejo de que el espacio se expande. 

Por tanto, bajo el dominio de la geometría de Weyl la luz no distingue ni el tamaño ni la edad del universo, de modo que no distingue si se encuentra antes o después del Big Bang, por lo que la luz genera un nuevo Big Bang. 

Gracias a la "magia" de la luz bajo esta geometría conforme Penrose se atreve a proponer un universo sin principio ni fin, sino con eones que se van sucediendo uno tras de otro: el final de un eón es el principio del siguiente dado que en tal etapa sólo domina la radiación y con ella la geometría de Weyl, que no distingue escalas, de modo que no distingue pasado ni futuro, generando con ello un nuevo Big Bang. 

Confieso que esta idea me lleva a recordar a Heráclito y su Logos: 

"Los extremos entran en Harmonía y se comprende que los opuestos se acoplan y son uno y el mismo"  


CONCLUSIÓN

La cosmología, desde pequeño, me ha fascinado y admito que nunca podemos evitar tratarla empleando nuestra más rica mitología; que hoy en día es matemática.

Pero también es cierto que la experiencia se ha empecinado a enseñarme una y otra vez no fiarme de los pronósticos y proyecciones, y de quienes hablan sobre el futuro. ¿Quién conoce el futuro?

En fin, es bueno no creerse nada de quienes hablamos sobre el futuro, ya sea éste mañana o dentro de eones. Pero, sin embargo, escuchar, aprender y tomar decisiones aún se dude es mucho mejor.