Entropie
Entropie ist eine quantitative Zustandsgröße, die in der Thermodynamik und der statistischen Mechanik definiert ist. Anfänglich in der Thermodynamik wurde es als Indikator der Irreversibilität unter adiabatischen Bedingungen eingeführt, und später in der statistischen Mechanik, was bedeutet, dass physikalische Größe, die mikroskopische "Unordnung" des Systems darstellt, gemacht wurde. Weiterhin wurde darauf hingewiesen, dass es eine Beziehung zu den aus dem System gewonnenen Informationen gibt, und es wurde auch auf die Informationstheorie angewandt. Manche argumentieren, dass die Entropie in der Physik anstatt ET Jaynes, ein Physiker, als eine Anwendung der Informationstheorie betrachtet werden sollte. Entropie hat Abmessungen der Energie geteilt durch Temperatur, und Einheit in SI ist J / K. Es gibt eine Wärmekapazität als eine Menge mit der gleichen Dimension wie Entropie. Entropie wird allgemein mit dem Symbol S ausgedrückt. Die Boltzmann-Formel in der statistischen Mechanik ist bekannt. Wo W die Anzahl der Zustände ist, die das System unter der definierten Energie (und Menge, Volumen, etc.) nehmen kann. Auch wird der Proportionalkoeffizient k als Boltzmann-Konstante bezeichnet. ...