entropia
Entropia è una quantità quantitativa di stato definita in termodinamica e meccanica statistica. Inizialmente in termodinamica, è stato introdotto come indicatore di irreversibilità in condizioni adiabatiche, e successivamente in meccanica statistica, cioè come quantità fisica che rappresenta la "disperazione" microscopica del sistema. Inoltre, è stato sottolineato che vi è una relazione con le informazioni ottenute dal sistema, ed è stata applicata anche alla teoria dell'informazione. Alcuni sostengono che l'entropia della fisica piuttosto che ET Jaynes, un fisico, dovrebbe essere considerata come un'applicazione della teoria dell'informazione. L'entropia ha dimensioni di energia divise per temperatura, e l'unità in SI è J / K. C'è una capacità di calore come quantità che ha la stessa dimensione dell'entropia. L'entropia è generalmente espressa usando il simbolo S. La formula Boltzmann nella meccanica statistica è ben nota. Dove W è il numero di stati che il sistema può assumere sotto l'energia definita (e quantità, volume, ecc.). Inoltre, il coefficiente proporzionale k viene chiamato costante Boltzmann. ...