Il termine entropia (dal greco ‘en’ = ‘dentro’ e ‘tropé’ = ‘trasformazione’, ‘cambiamento”, ‘rivolgimento’) venne coniato agli inizi del XIX secolo, nell’ambito della termodinamica, per descrivere la graduale e spontanea degenerazione di un sistema verso il massimo disordine. In particolare, la parola entropia venne introdotta dal fisico tedesco R.J. Clausius, nel suo ‘Trattato sulla teoria meccanica del calore’, nel tentativo di meglio chiarire il significato del secondo principio della termodinamica (“È impossibile realizzare una trasformazione il cui unico risultato sia quello di trasferire calore da un corpo più freddo a uno più caldo senza l’apporto di lavoro esterno”).

Il concetto di entropia è piuttosto complesso, tanto che la sua piena comprensione necessita di una conoscenza quantomeno basilare dei principi della termodinamica e della meccanica quantistica. È tuttavia possibile dare una spiegazione semplicistica dell’entropia, interpretandola come il “grado di disordine” di un sistema (all’aumentare del “disordine” è associato a un aumento di entropia; al contrario, ad una diminuzione del “disordine” di un sistema è associata a una diminuzione di entropia).

Possiamo quindi definire l’entropia come una grandezza che fornisce la misura del disordine presente in un sistema. Nello specifico, si tratta di una grandezza relativa, in quanto indica la variazione del livello di disordine in un sistema, relativamente ad un processo di trasformazione da uno stato iniziale ad uno stato finale. Nel sistema internazionale, l’entropia è generalmente rappresentata dalla lettera S e misurabile in joule fratto kelvin J/K, ossia nel rapporto tra la quantità di calore scambiato e la temperatura in cui avviene lo scambio.

Grazie all’enorme quantità di fenomeni che aiuta a descrivere e alla sua generalizzabilità, tra Ottocento e Novecento il concetto di entropia ha conosciuto grande popolarità, fino ad estendersi  anche ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell’informazione, l’economia, ecc.

In sociologia, ad esempio, il termine si riferisce alla progressiva tendenza al livellamento, all’annullamento delle articolazioni e delle gerarchie interne al sistema. Nel linguaggio economico, l’entropia è invece indice che sottolinea l’irreversibilità dei processi economici, con conseguente esaurimento delle risorse naturali, contrapposta a una loro ipotetica circolarità, mentre nella teoria dell’informazione indica la grandezza fisica che caratterizza la quantità d’informazione (più alta è l’entropia, minore è l’informazione). All’interno delle teorie dell’universo finito, per entropia  si intende infine la misura della graduale dispersione e degradazione di energia e materia, fino alla morte termica dell’universo stesso (entropia dell’universo).