El concepto de entropía fue establecido por Rudolf Clausius en la segunda mitad del Siglo XIX, en el limitado contexto de la termodinámica clásica. Sin dudas es la aproximación más conocida y divulgada del polémico concepto, debido a que ha encontrado un sinnúmero de aplicaciones en el campo de la termodinámica técnica, de la química y en otros campos específicos de la ciencia. Sin embargo, intrínseca en esta formulación esta la dificultad señalada por W. Pauli que reza asi:
“Extraño nos parece que en la termodinámica siempre es necesario hacer una rigurosa diferenciación entre calor y trabajo, a pesar de que el primer principio habla de su equivalencia. La mecánica estadística (la basada entre otras cosas en el concepto estadistico de entropía), no requiere de estos procedimientos mágicos. Ella explica las peculiares propiedades termodinámicas por medio del comportamiento microscópico de los sistemas dotados de un gran número de grados de libertad inimaginablemente grandes”.
Al mismo problema de la termodinámica clásica se refirio Leon Brillouin en su Libro Ciencia, Información e Incertidumbre. En su capítulo I el autor escribió:
“En la termodinámica clásica el concepto de valor parece estar esencialmente ligado a los conceptos de calor y temperatura. Los físicos no han sido capaces, y quizás no lo sean, de desligar estas entidades”.
En el caso específico de esta blog, cuyo objetivo fundamental es la interpretación y aplicación de la II Ley en universos muy alejados del lugar de origen de la termodinámica, tanto los señalamientos de Pauli, como los de Brillouin tienen gran relevancia.
Sin embargo, constituye un hecho indiscutible, que desde su surgimiento la mecánica estadística, y especialmente su concepto estadístico de entropía, ha sido patrimonio casi exclusivo de físicos y teóricos en general, que han encontrado en ella solución a problemas fundamentales y también enjundiosas aplicaciones. A esto se añade que, desafortunadamente, ha sido tradicional la presentación separada de la termodinámica fenomenológica, es decir, la llamada termodinámica clásica y la mucho más potente como teoría física, termodinámica estadística.
Aunque resulte increíble, esta conducta estuvo signada por el hecho de que, surgida en el punto más critico de la controversia de los físicos Mach y Ostwald, de gran influencia entonces en Europa, con Boltzmann, sobre la existencia misma de los átomos, el nuevo enfoque de la termodinámica siempre pendió la duda sobre sus propios fundamentos.
De este modo, la más ortodoxa formulación clásica de la termodinámica siempre ha resultado privilegiada en relación con la estadística lo que sin dudas resulto en perjuicio de la formación de generaciones y generaciones de profesionales de diversos tipos. Como es conocido en el caso de la termodinámica estadística, se trata de un enfoque microscópico que depende absolutamente de la elaboración de un modelo físico. Obviamente, dado que ya no existe duda sobre la existencia misma de los átomos, información que hubiera significado para Boltzmann la vida, no se justifica la posición original de preterir la mecánica estadística.
Dado que el concepto de entropía de Boltzmann forma parte esencial de este universo, si se quiere alcanzar una comprensión masiva del concepto, es necesario poner especial énfasis en la claridad de la presentación. Una forma de lograr esto, sin dudas lo constituye el proceder de inicio a una formulación del concepto de entropía con un enfoque estadístico, obviando cualquier referencia a la formulación clásica. Esta última resulta particularmente inadecuada cuando de enfrentar el reto de Brillouin de extender la termodinámica más allá de su lugar de origen se trata.
Por otra parte, a partir de la aparición en pleno Siglo XX de la teoría de la información, especie de extensión de la termodinámica como rama de la física teórica, el concepto de entropía adquirió una nueva connotación y también un nuevo significado. De hecho adquirió una nueva dimensión, toda vez que un concepto propio de la teoría de la información, la llamada entropía de Shannon, al margen de su total semejanza de su expresión matemática con la definición de entropía de Boltzmann, es una medida del grado de desinformación que se tiene sobre un sistema y no se relaciona, por tanto, como la entropía en termodinámica, con el estado del sistema como tal. Esta sutil diferencia es muy importante.
A continuación se desarrollan distintas aplicaciones del concepto de entropía estadística de Boltzmann con el propósito de mostrar su universalidad y, de este modo, su inestimable valor. Se trata de temas diversos, algunos de ellos sin antecedente conocido en la literatura especializada, como la pandemia del VIH, por ejemplo. Este es solo el comienzo de un esfuerzo abarcador que incluirá en un futuro inmediato que abarcara en el caso del VIH, tanto el mecanismo de acción de la adquisición de la enfermedad como fenómeno de invasión viral de las células sanas, como su comportamiento epidemiológico. Este es un tema, como se conoce, altamente sensible para la humanidad.