entropia

S (simb.), entropía (es), entropy (en)

f
Física

Magnitud termodinàmica, funció d’estat del sistema, introduïda per Clausius.

Hom la defineix per S2 S1= ∫2 1 dQ/T, S2 S1 essent la variació d’entropia corresponent a dos estats d’equilibri del sistema, i ∫2 1 dQ/T, la suma de quocients de les quantitats de calor cedides al sistema i la temperatura absoluta en què es troba el sistema en tots els punts d’un procés reversible qualsevol que uneixi l’estat 1 amb el 2. L’entropia proporciona un criteri per a determinar quins són l’estat inicial i el final d’una evolució termodinàmica, puix que en qualsevol procés d’un sistema aïllat l’entropia augmenta o roman constant (segon principi de la termodinàmica). En un procés reversible, que necessita la intervenció de fonts tèrmiques auxiliars, l’entropia es manté constant, puix que el sistema i les fonts compensen llurs variacions d’entropia. En un procés irreversible (cas real) hi ha sempre un augment d’entropia, per tal com la resta de l’univers roman aïllat del sistema durant la seva evolució. Dins la mecànica estadística, l’estat d’equilibri d’un sistema aïllat és d’entropia màxima i, així, l’augment d’entropia és interpretat com la tendència natural del sistema a passar d’un estat menys probable a un de més probable. La relació entre l’entropia S i la probabilitat termodinàmica W és S = klnW, k essent la constant de Boltzmann. Hom poten tendre la probabilitat termodinàmica com el “grau de desordre”, i aleshores l’entropia és una mesura del grau de desordre molecular que té el sistema.