Entropía
La entropía es una cantidad estatal cuantitativa definida en la termodinámica y la mecánica estadística. En termodinámica se introdujo inicialmente como un índice que representa la irreversible en condiciones adiabáticas, después de la mecánica estadística, lo que significa que la cantidad física que representa los sistemas microscópicos "desorden" se han hecho. Además, se señaló que existe una relación con la información obtenida del sistema, y se ha aplicado también a la teoría de la información. Algunos argumentan que la entropía en la física en lugar de ET Jaynes, un físico, debe ser considerado como una aplicación de la teoría de la información. La entropía tiene dimensiones de energía divididas por temperatura, y la unidad en SI es J / K. Existe una capacidad calorífica como una cantidad que tiene la misma dimensión que la entropía. La entropía se expresa generalmente con el símbolo S. La fórmula de Boltzmann en mecánica estadística es bien conocida. Donde W es el número de estados que el sistema puede tomar bajo la energía definida (y cantidad, volumen, etc.). Además, el coeficiente proporcional k se denomina constante de Boltzmann. ...