viernes, 6 de agosto de 2021

EL Azar (V) Demonios de la ciencia

Ir al INDICE de todos los post sobre el azar AQUÍ 


A mediados del s.XVII, cuando Descartes intentaba demostrar con sus reflexiones metafísicas que la nueva ciencia que empezaba a surgir con furor en la Europa cristiana no era una superstición humana más, sino que nos presentaba una visión realista, confiable y verdadera de las cosas, planteó como posibilidad a rechazar la existencia de un demonio que nos engañara. 



A raíz del demonio de Descartes entre las inteligencias más inquietas y potentes se han hecho famosos otros tantos demonios: como el de Laplace, el de Maxwell o el de Nietzsche. 


EL DEMONIO DE DESCARTES

En contraposición a Dios, el demonio de Descartes es un ser embaucador y sumamente seductor que se dedicaría a crear por macabra diversión una especie de Matrix, o de mundo virtual y ficticio, que nosotros tomaríamos cándidamente por real y auténtico.  



Este demonio nos llevaría a creer ciegamente en la existencia de verdades: que 2+2=4 es siempre cierto por ejemplo, o bien que el hielo es frío y por eso, en efecto, estoy viviendo lo que me parece que estoy viviendo. 


Sin embargo, todas estas apreciaciones no serían sino un engaño mental ¡Un truco de ilusionismo y fantasía! De modo que nuestra vida pasaría a ser una estafa; pero una estafa harto persistente e irrenunciable. 


El Demonio de Descartes es, pues, una especie de Morfeo, el señor de los ensueños: el mundo como una representación onírica creada bajo su voluntad, maléfica y estafadora; y sin embargo nosotros lo viviríamos ensimismados y convencidos de que es real, sin advertir de su falsedad, tal y como tantas veces ya nos sucede al dormir, que al despertamos nos damos cuenta, sorprendidos de nosotros mismos, hasta qué punto habíamos tomado lo soñado por real y auténtico.


EL DEMONIO DE LAPLACE

Ante la convicción estoica que fue adoptando la mentalidad moderna y según la cual el universo estaría regido por el más estricto determinismo, fruto en última instancia de la voluntad cósmica -o divina-, Laplace plateó la existencia de un ser con poderes sobrehumanos y oraculares tales que fuera capaz de prever las infinitas causas de todas las cosas, y con ello, “contemplase” sin esfuerzo alguno el cuadro de la Existencia en su totalidad.


Este ser demoníaco, plantea Laplace, solo necesitaría de los 3 principios de la dinámica de Newton, y conocer la posición y la velocidad de un único cuerpo del universo en un momento dado, para con ello deducir de inmediato todo cuanto ha ocurrido en el pasado, todo cuanto está sucediendo actualmente en el universo y todo cuanto acontecerá en el futuro ¡Para contemplar la vida “sub specie aeternitatis”!  



EL DEMONIO DE MAXWELL

A partir de la primera mitad del s.XIX una serie de ideas que ya pululaban en el “ambiente” intelectual de la modernidad, empezaron a precisarse, unificarse y tomar cuerpo entre ingenieros y académicos de la física; aparece la termodinámica, como el estudio de los procesos y transformaciones.

  

Se habían ya establecido varios principios de conservación; como el de la masa o el de la energía. Con tales principios se comprendió que las transformaciones y los cambios que observamos en el mundo no acontecían de forma irracional, arbitraria y milagrosa, sino siguiendo simetrías. En otras palabras, se entendió que en medio del cambio y la diferencia de apreciaciones siempre hay “algo constante” que se mantiene intacto e idéntico con el tiempo, y que, precisamente, nos permite pensar que forman parte de lo mismo. 


Una simetría pone dos o más características distintas en una relación de equivalencia e identidad, hecho que nos permite tratarlo como una misma cosa; en matemáticas tenemos un ejemplo muy básico de simetría:  0 = 3 + 5 - 8 = ln (1) = e+1”.



Las simetrías, de alguna manera pues, nos indican que, aunque algo pueda adquirir distintas formas, expresiones o perspectivas, no por eso dejará de ser una misma entidad esencial, o razón de ser ¡Como el arché de los griegos! 



Por ejemplo, una sustancia puede transformarse manifestando características muy distintas, mientras su “masa” se conserva: aunque 1 litro de agua líquida pueda convertirse en hielo, con el cambio de volumen, color y temperatura que por ello experimentará, seguirá una simetría (la de la masa), la cual nos permite prever que su “peso” se mantendrá igual. 


Y así también sucede cuando un movimiento mecánico (movimiento de una rueda de coche por ejemplo) puede transformarse en un aumento de temperatura -de la propia rueda y del asfalto. ¿Qué es lo que aquí se conserva y se mantiene idéntico en el tiempo? A esta simetría en concreto se la llamó “conservación de la energía”.  


Además de todo esto, la termodinámica introdujo una idea interesante y capital: que las nociones empíricas de frío y calor, tan apegadas en nosotros por nuestras experiencias más primitivas e imperativas, no existen por sí mismas. La termodinámica redefinió y revaloró el marco conceptual de semejantes experiencias afirmando que sólo existe la temperatura. Por tanto, un cuerpo no está frío ni caliente por sí mismo, sino que un cuerpo tiene más o menos temperatura. 



Se necesitaron casi 2 siglos para imponer este nuevo marco conceptual sobre nuestra empiria, rompiendo con ello con la larga tradición de interpretar nuestras siempre confusas experiencias sensuales a través de puras antítesis: frío/calor, duro/blando, luminoso/oscuro, bueno/malo, etc. Además, de tal guisa se introducía el relativismo en nuestras valoraciones y medidas: una sustancia es más caliente (mayor temperatura) que otra más fría (menor temperatura), pero ésta a su vez puede ser más caliente que otra muchísimo más fría ¿Cuál de estas sustancias es realmente fría o caliente? Tamaño dilema se vuelve absurdo y trivial.


Fue sobre semejantes mimbres conceptuales que el joven Carnot logró constatar algo que los pensadores modernos, por su influencia neoplatónica y estoica, tenían ya bastante asumido a decir verdad, pero que no supieron especificar de forma pautada y por tanto, matemática; ni tampoco supieron sacarle mucho provecho en la práctica. 



Carnot puso de manifiesto que a efectos prácticos resulta imposible aislar ningún proceso del “entorno” para que así manifieste un comportamiento completamente autónomo y libre ¡Sui géneris


El francés sí reconocía que no hay problema en imaginar un proceso ideal y perfecto; nos basta con imaginar que cogemos un proceso, lo simplificamos, lo recortamos y descontextualizamos a fin de hacer que, sobre el papel, se comporte por sí mismo de forma completamente reversible, cíclica y por tanto, simétrica. 


Nota: desde los griegos un proceso autónomo, perfecto e ideal es un proceso idéntico a sí mismo ¡Inercial por así decirlo! Y como tal conserva siempre todas sus cualidades. Por tanto, se concibe como un proceso perfectamente simétrico. La máxima expresión de un proceso de tal calibre era, para los antiguos, el que seguían los astros; como así lo explican desde Pitágoras, Platón, Epicuro o los estoicos: movimientos circulares, repetitivos y en tal sentido, reversibles. Nosotros seguimos pensando igual: un proceso ideal y perfectamente simétrico será de por sí reversible. Y cabe añadir, que el summum de la reversibilidad es manifestarse como algo inmutable, fijo, estático… sin ya movimiento ni alteración alguna ¡Cómo una idea platónica!   





Sin embargo, al intentar materializar esta idea y llevarla a cabo en la práctica apreciamos que siempre obtenemos un proceso irreversible: un proceso cuyo comportamiento será “más imperfecto” que el imaginado ¡Más asimétrico! Y aquí no hay duda de la influencia profundamente platónica de semejante planteamiento; hecho que da para reflexionar. 


Carnot consiguió, pues, estipular una fórmula, bastante simple en esencia, con la que calcular el rendimiento de un proceso: sencillamente consistía en comparar su comportamiento efectivo con el ideal.  O dicho en otras palabras, fue capaz de estipular una fórmula con que calcular con cuanta “imperfección” se comporta un proceso ¡Y esto sí era nuevo! 


Gracias a esta ingeniosa forma de tratar y comprender los procesos empezaron a desarrollarse y usarse nuevos motores y procesos industriales cada vez más perfeccionados, competitivos y productivos. La revolución industrial explotó.  


Sin embargo, los trabajos de Carnot abrieron un nuevo dilema entre los ingenieros: ¿Por qué jamás se puede obtener a la práctica un proceso ideal, reversible y perfectamente simétrico? ¿Por qué jamás podremos obtener rendimientos del 100% en nuestros motores y procesos físicos? ¿Por qué, en definitiva, resulta imposible construir una máquina de movimiento perpétuo sostenible por sí misma en el tiempo?


Fue Rudolf Clausius quien respondió con notable precisión a semejante pregunta, simplemente observando que todo proceso termina perdiendo energía al quedarse, ésta, atrapada en el entorno” -el foco frío. Por tanto, cualquier proceso se vuelve energéticamente asimétrico por sí mismo. O en otras palabras, siempre hay cierta energía del proceso que el propio proceso ya no puede recuperar para reutilizar, y la pierde en un pozo frío (el entorno), de modo que ya no puede mantener un comportamiento ideal, perpetuo y perfecto… A no ser que se le vaya proporcionando nueva energía constantemente.  



Y, ¿qué sucede con esta energía que el proceso pierde y no puede reutilizar?  Que se convierte en lo que Clausius bautizó como entropía: energía inútil para alimentar un proceso; una especie de desecho termodinámico. 


Así pues, Clausius describía matemáticamente como cualquier proceso siempre disipa energía hacia “el entorno”, o foco frío ¡Y jamás puede recuperarla por completo! Con motivo, resulta imposible perpetuar un proceso, volverlo reversible... ¡Hacerlo sostenible en el tiempo! Cualquier proceso físico, irremediablemente, será cada vez más imperfecto y accidentado, asimétrico y débil ¡Su rendimiento disminuirá hasta desaparecer como proceso! Pues, la cantidad de energía no reutilizable ni, por tanto, reciclable para el proceso, siempre irá en aumento. 


-¡La entropía siempre crece!- Escribe Clausius. Y con tal crecimiento emerge la flecha hacia donde fluye el tiempo: de lo más perfecto a lo más imperfecto, inerte y desechable.

 


Con la formulación de Clausius se había encontrado una forma bastante precisa de representar el devenir, la flecha del tiempo, la transitividad de los eventos físicos; de aquí la fascinación que ejerció, y sigue ejerciendo hoy en día semejante ley.





Eh aquí, pues, la famosa segunda ley de la termodinámica, articulada sobre la inquietante noción de entropía. E insisto, hay algo de platónico en todo este planteamiento ¡Pero es que hay mucho de los griegos y su obsesión por imaginar, representar y comprender el devenir!... lo que ellos llamaron "physei" y los romanos tradujeron por "natura".  

En todo caso, esta ley destaca por mostrarnos la vida como un caótico escenario de procesos irreversibles: procesos efímeros, asimétricos y siempre fugaces que se van sucediendo hasta el fin de los tiempos: la muerte térmica del cosmos.

 



Se abre ante nuestros ojos, pues, una visión nihilista e imperfecta de la existencia que sentencia con dureza: todo tiende a la muerte, a desaparecer y a ser pasto del tiempo.


 “La vida no es más que voluntad de morir”


   

Ya lo he comentado otras veces en el blog: a nivel filosófico no estamos ante una visión radicalmente nueva de la vida. Sí, fue nuevo para los ingenieros y profesores de física del s.XIX, que alertaron de la imposibilidad de construir máquinas de movimiento perpetuo y perfectamente sostenibles en el tiempo, pero no lo era tanto para los filósofos modernos influenciados por el estoicismo y el neoplatonismo. Descartes o Spinoza, por ejemplo, bien lo explican usando el principio de causalidad: de como lo más perfecto (menos entropía) siempre es causa y génesis de lo menos perfecto (más entropía), pero jamás a la inversa, marcando con ello la insobornable flecha del tiempo o de las acciones


Ahora bien, para los pensadores modernos eso de terminar aceptando que la vida sea voluntad de muerte les parecía una conclusión contradictoria, absurda. Por consiguiente dedujeron que la visión irreversible y fugaz de las cosas tenía que ser aparente, superficial y falsa: -¡Al reducir la existencia al absurdo se termina negando la vida, hecho que no puede ser!- Pensaron, y entonces terminaron por defender que el universo, y todo cuanto éste ha generado en algún momento dado, tenía que ser, en el fondo, divino: algo eterno, perfecto, inmutable ¡Y Einstein también terminó abocado al mismo razonamiento: que de algún modo el universo debe ser perfecto, porque sino resultaba ser absurdo y por tanto refutable!

 


Siguiendo con la entropía. 

El establecimiento de la segunda ley de la termodinámica marcó un hito para la física al introducir la primera asimetría con la que explicar la flecha del tiempo. Y empezaron a salir distintos enunciados de esta ley, los cuales sacaban a relucir su amplia aplicabilidad. Una de ellas era la siguiente: 


-Si tengo dos vasos de agua a distinta temperatura, uno más caliente que el otro por así decirlo, y los mezclo en un mismo recipiente, entonces el comportamiento de tal mezcla será muy particular:  tenderá a buscar una temperatura global promedio ¡Terminará alcanzando un equilibrio térmico! Y ya no veremos que suceda nada más… jamás; fin de la historia.  


Según la ley de Clausius, pues, nunca seremos testigos de como un recipiente de agua en equilibrio térmico, por sí mismo y sin aplicarle ningún trabajo, empieza a manifestar “fases de estado”: mientras aparecen unos cubitos de hielo por un lado, por otro aparece vapor de agua caliente. Si esto fuera posible, entonces ya no sería necesario tener ni congeladores ni refrigeradores para conseguir el hielo de nuestros refrescos; ni tampoco microondas para hacer hervir el agua de nuestras infusiones ¡Cuánta electricidad nos ahorraríamos! 


Fue Maxwell quien se puso a estudiar este tipo de enunciados con mayor sutileza y detalle. Para hacerlo retomó los trabajos estadísticos olvidados de Daniel Bernoulli (Hidrodinámica de 1738), e imaginó que cualquier sustancia, como el agua por ejemplo, no era más que un conjunto de partículas; y el hecho de que una sustancia se nos apareciera como un sólido, un líquido o gas, con una temperatura particular, sólo reflejaba la estructura y el movimiento que seguían, en promedio, sus partículas. 


Hoy en día este escenario nos parece obvio, puesto que lo hemos asumido desde jóvenes en el instituto, pero no lo era hace 200 años. Incluso una eminencia de la física de mediados del s.XIX como Mach intentó ridiculizar repetidamente cualquier explicación física a partir de supuestas partículas invisibles constituyentes de las sustancias porque no se podían “tocar con las manos”. 


Maxwell, pues, imaginaba el ejemplo de mezclar dos vasos de agua a distintas temperaturas como si fueran dos sistemas de multitud de partículas invisibles, donde éstas se mueven más rápido o despacio según fuera la temperatura global de su sistema. 


En otras palabras, Maxwell imaginaba un escenario microscópico para interpretar las medidas macroscópicas al tratar la temperatura de una sustancia como un reflejo de la energía cinética (velocidad) de sus partículas invisibles.


A raíz de este modelo Maxwell se preguntó: ante una sustancia en equilibrio térmico, es decir, a una temperatura fija, uniforme y estable, ¿cómo podemos saber qué energía cinética tiene cada una de sus partículas? ¿A qué velocidad se mueven? ¿Acaso todas ellas tendrán exactamente la misma energía cinética, una energía equivalente con la temperatura que podemos medir de la sustancia? 


En principio, parece lógico pensar que las partículas de una sustancia no van todas a la misma velocidad, dado que en medio de ese bullicio de partículas en movimiento que conforma la sustancia resulta evidente que se estarán produciendo constantemente choques entre ellas; y los choques no son más que transferencias de energía: mientras unas partículas ganan velocidad otras la pierden. 


Por tanto, Maxwell entendió que en un vaso de agua, a 20ºC por ejemplo, habrá, quizás, trillones de partículas de agua, todas ellas moviéndose a distintas velocidades y por tanto, con distintas energías cinéticas debido al comercio constante de energía que se produce entre ellas. Y sin embargo, razonaba Maxwell, todas esas múltiples y variadas velocidades de las partículas tenían que reflejar, de algún modo, los 20ºC de temperatura del vaso de agua. 


Para poder seguir desarrollando este bullicioso escenario de partículas Maxwell precisó de la ayuda de Boltzmann, y juntos terminaron poniendo de manifiesto que la transferencia de energía cinética entre las partículas de una sustancia en equilibrio térmico seguía una distribución de posibilidades  (la distribución de Maxwell-Boltzmann). Y esta distribución dependía precisamente de la temperatura de la sustancia ¡Dilema resuelto!





Pero, sin terminar de entender muy bien qué significaba que la transferencia de energía cinética entre partículas siguiera una distribución, de pronto Maxwell presentó su famoso demonio


Y es que a Maxwell parecía que sólo le había quedado claro una única cosa de su propio modelo: que si bien a nivel macroscópico una sustancia puede parecer que yace apacible, quieta y tranquila bajo cierto equilibrio térmico y por tanto, nada debería ocurrirle ya nunca más, a nivel interno (microscópico) sufre un bullicio constante de choques y transferencias energéticas entre sus numerosas partículas; de modo que algunas de ellas pierden mucha energía, otras se mantienen más o menos igual y otras ganan muchísima energía.


Así pues, ante este bullicio de partículas que subyace bajo la tranquila y superficial “piel” de toda sustancia Maxwell nos dice: imagina que existe un demonio tan pequeño como las propias partículas invisibles del agua, y tiene ganas de gastarnos una broma: se mete en el vaso que tenemos enfrente y empieza a seleccionar, una a una, todas las partículas de agua según su energía cinética: las que tienen menos energía las deja debajo, en el culo del vaso, las medianas en el medio y las que tienen más energía arriba. Entonces, enfatiza Maxwell, veríamos cómo se produce un milagro dentro el vaso al aparecer una separación espontánea de “estados”: en la parte baja se formaría de repente hielo, frío y duro; en medio se mantendría cierta agua líquida y arriba se escaparía un vapor de agua super caliente ¡El demonio habría violado el segundo principio de la termodinámica! De modo que con su ayuda sería posible crear máquinas de movimiento perpetuo y sostenibles en el tiempo  ¡La vida podría llegar a ser perfecta!



El demonio de Maxwell quedó ahí, como una curiosidad intelectual para aquellas inteligencias que aún no habían entendido por completo qué significaba que las transferencias de velocidades entre las partículas de una sustancia siguieran una distribución de posibilidades. Y en el s.XIX eran prácticamente todas las inteligencias científicas. 


Fue precisamente Boltzmann quien sí entendió de forma profunda y cabal las radicales implicaciones de ese bullicioso escenario de partículas invisibles que él y Maxwell habían desarrollado a fin de comprender las medidas y observaciones realizadas. Entendió que en el mundo microscópico manda el Azar. Por tanto... tenían que seguir siempre distribuciones de probabilidad


Con tal idea en mente logró derivar otro tipo de distribución (la distribución de Boltzmann), mediante la cual consiguió deducir la propia entropía de Clausius. Con ello sacó a relucir el carácter aleatorio de la entropía, mientras la apartaba del determinismo causal bajo la cual la entendían y usaban todos sus contemporáneos. 



Con motivo, pues, el trabajo de Boltzmann fue silenciado durante décadas por molesto e incomprendido, por profanar el sacrosanto dogma de la ley de causalidad; llevándole a la depresión y al suicidio. No fue hasta principios del s.XX que Planck, por puro descarte e incrédulo, lo empleó para resolver el dilema de la catástrofe ultravioleta, aún convencido de que era una locura tomarlo demasiado en serio y pidiendo, por eso, perdón a la comunidad científica ¡Pero funcionaba! Y con él se abrieron las puertas a la mecánica cuántica. 



Sí, en seguida Boltzmann había comprendido que la figura del demonio de Maxwell resultaba irrelevante y pueril; que con la noción de azar era suficiente para violar el segundo principio de la termodinámica de Clausius y por tanto, el absurdo destino de la vida: la condena a una muerte definitiva. ¿Por qué? 


Con la entropía de Boltzmann entre manos, dado un sistema de partículas éstas pueden adquirir aleatoriamente cualquier estado posible permitido por la distribución. Por tanto, según el número de partículas y de estados posibles, Boltzmann podía calcular todas las posibilidades o series de combinaciones que éstas, en conjunto, podían adquirir. Y como en cada instante el sistema manifiesta una de estas combinaciones posibles, sólo es cuestión de tiempo que el sistema, por la pura fuerza bruta del azar, vaya pasando por todas las series combinatorias posibles. Por supuesto, el sistema también pasaría en algún momento indeterminado por esas combinaciones que implicarían una violación del segundo principio de la termodinámica. 


Objeciones: ¿Por qué, de ordinario, siempre apreciamos como los procesos cumplen a rajatabla la segunda ley de la termodinámica de Clausius al tender hacia estados de equilibrio, a no ser que les vayamos inyectando más energía? ¿Por qué no vemos procesos perfectamente reversibles, o simplemente que salgan espontáneamente del equilibrio térmico? ¿No es eso una prueba empírica de que el modelo aleatorio de Boltzmann no es correcto? 


Como ya vimos en el juego de azar de tirar 20 veces una moneda al aire, lo más probable es que obtengamos una serie con, como mínimo, 4 monedas iguales consecutivas; dado que el 77% de todas las series posibles contienen como mínimo 4 monedas iguales consecutivas. Aquí sucede lo mismo: el número de combinaciones que implican un alto valor de entropía son mucho (muchísimo) más numerosas que las que implican un bajo valor de ésta. Por consiguiente, la tendencia es que todo sistema tienda por pura probabilidad a un equilibrio (alto valor de entorpía), que mantendrá durante mucho tiempo ¡Pero jamás para siempre! 


Por todo lo dicho, al llegar aquí me parece importante recalcar: no, ningún sistema está “determinado” a alcanzar un equilibrio; un proceso no está obligado a desaparecer para siempre en pos de un equilibrio perpetuo, puesto que el sistema, bajo el dominio del azar, carece de finalidad y voluntad. Por tanto, a diferencia de las interpretaciones que defendieron Clausius y compañía durante décadas, la “muerte” de un proceso es sólo una posibilidad entre muchas más ¡Y para nada definitiva! 


“La vida, de repente, puede volver a ser pensada como perfecta… pero ya no como una máquina creada y encendida por Dios en un momento indeterminado.” 


Por consiguiente, responde a la pura fuerza bruta del azar que los procesos sean irreversibles y desaparezcan en medio de un insípido y necrótico equilibrio, pero siempre pueden salir, también por azar, de dicho equilibrio para repetir de nuevo el proceso. Ahora bien, tal resurrección resulta ser sumamente improbable y por ello, nunca vemos de ordinario que suceda (a nivel microscópico sí que se ha comprobado que sucede).     


En fin, lector, imagina tomar un vaso de agua caliente al que le introduces un hielo; lo más probable es que durante un tiempo se produzca un proceso en el cual el agua caliente se enfría y el hielo se va derritiendo al aumentar su temperatura. En unos minutos el hielo habrá desaparecido y tendremos una masa de agua que habrá alcanzado un equilibrio térmico a cierta temperatura media. Es el reflejo de un conjunto de combinaciones posibles de sus partículas; en efecto, las más probables o numerosas. Por consiguiente, el sistema puede permanecer mucho, mucho tiempo en semejante equilibrio fantasmagórico, mientras este abundante tipo de combinaciones se van sucediendo aleatoriamente y sin que nosotros lo podamos alertar. Ahora bien, nos basta con vivir lo suficiente, acaso trillones de años, para poder comprobar “in situ” cómo de repente, y sin más, el agua del vaso vuelve a generar “estados”; creando de forma espontánea el hielo por un lado y el agua caliente por el otro ¡Como si vieramos una pelicula corriendo hacia atrás! Para luego, volver a observar el proceso de mezcla entre el hielo y el agua caliente en una masa líquida de agua a temperatura media, y en equilibrio térmico, durante otro larguísimo período de tiempo.  ¿Cuánto tiempo?


Fue Poincaré en 1890 quien tuvo la genial idea de calcular el tiempo de recurrencia (de resurrección) de un sistema con un número no infinito de microestados posibles, desarrollando un teorema que se puede aplicar tanto a sistemas clásicos como cuánticos. A partir de este teorema, en 1994 y en un paper que no tuvo mucho impacto, salió el valor del tiempo más largo jamás calculado en física: el tiempo de recurrencia de un universo como el que conocemos

Este es el vídeo hablando sobre el tiempo de recurrencia de un universo como el que conocemos actualmente.



El demonio de Nietzsche


“Qué pasaría si un día o una noche un demonio se deslizara furtivo en tu más solitaria soledad y te dijera: ‘Esta vida, tal como la vives ahora y tal como la has vivido, la tendrás que vivir una vez más e incontables veces más; y no habrá nada nuevo en ella, sino que cada dolor y cada placer y cada pensamiento y suspiro y todo lo indeciblemente pequeño y grande de tu vida tendrá que retornar a ti y todo en la misma serie y en la misma sucesión –e igualmente esta araña y este claro de luna entre los árboles, e igualmente este instante y yo mismo. El eterno reloj de la arena de la existencia será girado siempre de nuevo– y tú con él, mota de polvo del polvo’ […] ¿Cómo tendrías que quererte a ti mismo y a la vida para no pretender nada más que esta confirmación última, que este último sello?” F.Nietzsche, “Gaya ciencia”. 


El eterno retorno, idea capital del pensamiento de Nietzsche, es probabilística y apela directamente a nociones termodinámicas. Pero, ¿qué sabía Nietzsche de termodinámica? ¿Qué intuía?


Desde hace tiempo tengo la presunción de que Nietzsche había conocido a Clausius al presentarse voluntario como enfermero en la guerra franco-prusiana de 1870; siendo Clausius quien había organizado esa unidad de asistencia en el campo de batalla y ganando, por ello, la “cruz de hierro” al valor. Y ya por ese entonces Clausius era una eminencia científica sumamente respetada y reconocida en Alemania por sus trabajos sobre la entropía ¿Acaso se le pasó eso desapercibido al joven Nietzsche? 


Pero sí, me pregunto si Nietzsche conocía los trabajos de Boltzmann publicados a partir de 1870. Fueron trabajos que tuvieron cierto impacto en centroeuropa en el momento de su publicación, aunque luego fueron apartados y silenciados. 


En todo caso Nietzsche, como Boltzmann, abraza por completo el azar como razón de ser de las cosas, por así decirlo, mientras lucha contra el determinismo causal moderno, entre otras ideas -como la metafísica y el conocimiento contemplativo. De aquí, precisamente, la estúpida etiqueta de irracionalista que sus contemporáneos, y aún algún despistado hoy en día, le colgaron de forma injusta y ridícula. 


Sea como sea, con su demonio Nietzsche plantea no sólo una visión y un modelo que choca contra la visión causalista  e irreversible que percibe todo cuanto existe como fugaz, efímero y pasajero, incluso el propio universo mismo, sino que pone sobre la mesa como esta visión del eterno retornar puede afectarnos; como esta visión y posibilidad puede actuar sobre nuestras expectativas vitales y nuestra percepción de cuanto vivimos, con todos los sentimientos, deseos y fantasías que eso despierta en nosotros.  


Son muchas las dudas que semejante visión despierta en nosotros, y es por eso que me resulta fascinante y digna de ser estudiada mucho más a fondo. Quizás algún día me ponga a ello en el blog. Pero por el momento esto es todo sobre el tema; demasiado ya escrito por hoy.


Ir al INDICE de todos los post sobre el azar AQUÍ 


No hay comentarios: