Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Entropía (termodinámica) - Wikipedia, la enciclopedia libre

Entropía (termodinámica)

De Wikipedia, la enciclopedia libre

Icono de copyedit

Este artículo tiene contenido demasiado complejo para lectores que no son expertos en el tema. Si tienes capacidad, por favor edítalo, contribuye a hacerlo más accesible para el público general, sin eliminar los detalles técnicos que interesan a los especialistas.

La entropía describe lo irreversible de los sistemas termodinámicos
Aumentar
La entropía describe lo irreversible de los sistemas termodinámicos

En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. En un sentido más amplio se interpreta como la medida del desorden de un sistema. Es una función de estado de carácter extensivo y su valor en un sistema aislado crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.

Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Es decir, ¿por qué cuando se cae un vaso se rompe en miles de pedazos y nunca, se ha observado que los miles de pedazos de cristal saltan espontáneamente del suelo para formar un vaso? Se necesita de un criterio que indique el sentido en el que evolucionan los sucesos o las experiencias, y la entropía vino a resolver esta cuestión: los sucesos en la naturaleza siempre ocurren de manera que aumente el desorden del universo. O dicho de otro modo, la entropía del universo siempre aumenta. Miles de trozos de cristal, esparcidos en el suelo, forman un sistema mucho más desordenado que todos ellos colocados formando un vaso.

La función termodinámica, S, es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene una alta entropía. Puesto que una condición de distribución al azar es más probable que una ordenada, la entropía puede considerarse como una función de probabilidad.


Tabla de contenidos

[editar] Ecuaciones

Rudolf Clausius - Padre de la Entropía
Aumentar
Rudolf Clausius - Padre de la Entropía

Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de \frac{\delta Q}{T} sólo depende de los estados inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbída en el proceso en cuestión y T es la temperatura absoluta). Por tanto, ha de existir una función f(x) del estado del sistema, S = f(P,V,T) denominada entropía, cuya variación, en un proceso reversible entre los estados 1 y 2 es:

\Delta S = S_2 - S_1 = \int_1^2 \frac {\delta Q} {T}

Téngase en cuenta que como el calor no es una función de estado se usa δQ en lugar de dQ.

La entropía física, en su forma clásica, es definida por la ecuación

dS = \frac{\delta Q}{T}

o más simplemente, cuando no se produce variación de temperatura (proceso isotérmico):

S_2 - S_1 = \begin{matrix} \cfrac{Q_{1 \to 2}}{T} \end{matrix}

donde S es la entropía, Q_{1 \to 2} la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin). Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico.

El significado de esta ecuación es el siguiente:

Cuando un sistema termodinámico pasa, en un proceso reversible, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta.

De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará el grado de entropía. Si la temperatura aumenta, la entropía disminuye. Y viceversa.

Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.

[editar] Cero absoluto

Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema es necesario fijar la entropía del mismo en un estado determinado. La Tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K).

Esta magnitud permite definir la Segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (Primera ley de la termodinámica). Por tanto, otra manera posible de interpretar esta magnitud es aquella que dice:

El tiempo, como nosotros lo conocemos, es la dirección en que la entropía global del sistema crece.

[editar] Entropía y reversibilidad

La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo para un proceso dado es igual a su variación en el sistema más la de los alrededores:

\Delta S_{universo} = \Delta S_{sistema} + \Delta S_{alrededores} \,

Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor ya que hay pérdidas por rozamientos, esto es, los procesos son irreversibles.

Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, dando como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.

Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puede crearse ni destruirse", la entropía puede crearse pero no destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del mundo físico, que llamamos "Principio de evolución". Cuando la entropía sea máxima en el universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por Clausius). Toda la energía se encontrará en forma de calor y no podrán darse transformaciones energéticas.

[editar] Interpretación estadística de la entropía

En los años 1890 - 1900 el físico austriaco Ludwig Boltzmann y otros, desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía.

Según estas ideas, la entropía queda definida por la ecuación

S = k \cdot \ln \Omega

Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo natural).

La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Boltzmann en el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época.

El significado literal de la ecuación es el siguiente:

La cantidad de entropía de un sistema es proporcional al logaritmo natural de su número de microestados posibles.

Ahora bien, su significado final es aún materia de discusión en física teórica, dado el profundo alcance que posee.

Los Principios de la Termodinámica se podrían definir, de forma "jocosa" como:

No podemos ganarle el partido a la Entropía (Primer principio)

Tampoco podemos empatar (Segundo principio)

Y tampoco podemos abandonar el partido (Tercer principio)

[editar] Entropía y desorden

Se tiende a interpretar la entropía como una medida del desorden en un sistema. Por ejemplo: al ordenar una habitación totalmente desordenada, esto es, lo más homogénea posible (calcetines con discos, ropa en todos los lugares posibles, etc) es necesario un consumo de energía mecánica para transportar los objetos de un lugar a otro. Si esta energía es aportada por una persona, hay un aumento de entropía global en cuanto la energía consumida es obtenida mediante los alimentos. Al ingerir un alimento transformamos algo ordenado (manzana) en algo totalmente desordenado (heces y dióxido de carbono). Aunque consumamos alimentos totalmente triturados y homogéneos, microscópicamente, dichos alimentos, presentan una estructura más compleja que el resultado de la digestión y respiración.

Como de forma natural todo tiende al desorden, para mantener una habitación ordenada, es necesario el aporte de energía proveniente de un desorden externo. De forma natural la habitación tenderá al desorden si no lo evitamos.

Así, una habitación adolescente, donde cada calcetín está en un rincón, puede ser considerada más ordenada para el ocupante si éste conoce el lugar donde encontrar la prenda en cuestión; más ordenada que si sus padres se dedican a "organizarla" de una manera distinta, desconocida, incluso críptica. Está claro que macroscópicamente "el orden" es algo subjetivo: mientras a los padres les parece desordenado, al hijo le parece que está ordenado. La multiplicidad de opciones donde encontrar el calcetín aumenta porque el adolescente no sabrá dónde buscar (¿en el armario o en los cajones?, ¿o quizás en la mesilla?) con lo que la entropía parece que habrá aumentado, no disminuido. Pero queda claro que si el adolescente no quiere estar cambiando continuamente sus esquemas mentales, ha de mantener "ese orden" establecido, y si no deja las cosas donde él sabe encontrarlas, el desorden, de forma espontánea, irá aumentando. Si al coger un CD lo deja en otro lugar distinto de donde habitualmente los tiene, llegará un momento en el que desconozca donde están las cosas o necesite un gran esfuerzo memorístico para encontrarlas, con lo que habrá aumentado la entropía. Es necesario un gasto energético para mantener "ese orden" con un aumento de desorden fuera de la habitación (alimentos).

Al disminuir localmente la entropía de un sistema cerrado y aislado se producirá un aumento en otra región, con lo que el balance global será siempre positivo.

[editar] Entropía y la muerte

Es posible explicar la muerte mediante la entropía. Como se ha dicho, la entropía se puede interpertar como un aumento del desorden. Un ser vivo se puede considerar un sistema altamente ordenado, donde la materia se encuentra en una estructura muy heterogénea y compleja. Al envejecer, las células pierden la capacidad de mantenerse ordenadas, es decir, de conformar un cuerpo con partes bien diferenciadas; se va produciendo un desorden del cuerpo. Para mantener ese orden necesitan la información que se encuentra en el ADN, pero ésta es una molécula extremadamente ordenada que tiende a desordenarse (perdiendo la información almacenada) con cada mitosis celular (duplicación celular).

Únicamente las células cancerígenas son capaces de duplicarse sin la más mínima pérdida de información en su ADN, pero por otro lado pierden la capacidad de mantenerse ordenadas en el lugar que deben ocupar y de realizar las funciones que le son naturales. Así, en un cáncer de pulmón, las células cancerígenas pueden establecerse en partes del cuerpo no destinadas a ellas, como el hígado: en el cáncer se produce un aumento de la entropía, más aún si se produce la muerte del individuo.

El cuerpo para mantener su orden consume energía de forma constante, aumentando la entropía del entorno al consumir alimentos y agua dulce (de menor entropía que la orina). Al morir, el cuerpo sigue siendo una estructura relativamente ordenada, que rápidamente (al no consumir energía) se desordena transformándose en moléculas más sencillas (descomposición). Se podría decir que la vida es un conjunto de elementos químicos que se encuentran de forma ordenada, y que para mantener ese orden necesitan consumir energía o moléculas con poca entropía. Con la muerte, de forma natural y espontánea, aumenta considerablemente la entropía.

Así pues, la muerte es una consecuencia de una tendencia general en la naturaleza ya que todos los procesos naturales tienden a un aumento de la entropía.

[editar] Relación de la entropía con la Teoría de la información

Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Plank.

Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros.

Simplemente, al realizar un trabajo, se ocupa muy poca energía; la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo.

La entropía sólo mide sistemas.

[editar] Véase también

Equilibrio termodinámico
Energía libre de Gibbs
Energía libre de Helmhotz
Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com