Entropi er et mål for graden af uorden i et system, der indeholder energi eller information.

Faktaboks

Etymologi
Ordet entropi er græsk, af en- og trope 'ændring, vending'.

I termodynamikken er entropien S en tilstandsfunktion, dvs. at den for et system i ligevægt kun afhænger af størrelser som systemets tryk, temperatur og volumen, men ikke af den måde, hvorpå systemets tilstand er fremkommet.

Hvis et system ved den absolutte temperatur T igennem en reversibel proces får tilført en lille varmemængde δQ, er den tilsvarende ændring i entropi givet ved δQ/T. Entropiforskellen mellem to forskellige tilstande er derfor uafhængig af, på hvilken måde systemet føres fra den ene til den anden tilstand, og givet ved summen (i matematisk forstand integralet) af de enkelte bidrag δQ/T hørende til den reversible proces, der fører systemet fra den ene til den anden tilstand. For et lukket system kan entropien aldrig aftage, og ved spontane, irreversible processer vil entropien altid vokse. Dette er termodynamikkens anden hovedsætning.

For to delsystemer, hvis indbyrdes vekselvirkning er svag, gælder, at den samlede entropi med tilnærmelse er summen af de to delsystemers entropi, S = S1 + S2. Den statistiske mekanik knytter den termodynamiske entropi til logaritmen af det antal måder, hvorpå systemets makroskopiske tilstand kan tænkes fremkommet. Det gælder i almindelighed, at entropien kan udtrykkes ved S = klnW, idet k er Boltzmanns konstant og W er antallet af måder, hvorpå systemets tilstand kan fremkomme.

De fysiske processer, vi iagttager i naturen, går i retning af at øge entropien. Når to forskellige luftarter blandes efter at have været adskilte, har blandingen større entropi end summen af de to adskilte luftarters entropi. Den modsatte proces, at en blanding bliver til to adskilte luftarter, kan i princippet forekomme, for så vidt som de love, der styrer molekylernes bevægelse, har samme form, hvad enten tiden tænkes at forløbe den ene eller den anden vej. Men den modsatte proces er overordentlig usandsynlig. I praksis ser vi derfor altid adskilte luftarter blandes, snarere end blandinger skilles.

I informationsteorien benyttes entropien som et udtryk for manglende information. Hvis pi betegner sandsynligheden for et bestemt begivenhedsforløb, det i'te af i alt N mulige, defineres entropien som summen af leddene −pilnpi over alle i = 1,2 ... N. Entropien er derfor nul, hvis det om et bestemt forløb, det k'te, gælder, at pk = 1, mens pi = 0 for alle i forskellige fra k, dvs. hvis der kun eksisterer én mulighed. Alle andre sandsynlighedsfordelinger svarer til en entropi, der er større end nul.

Kommentarer

Kommentarer til artiklen bliver synlige for alle. Undlad at skrive følsomme oplysninger, for eksempel sundhedsoplysninger. Fagansvarlig eller redaktør svarer, når de kan.

Du skal være logget ind for at kommentere.

eller registrer dig