entropía

entropía

(Del gr. entrope, vuelta.)
1. s. f. FÍSICA Magnitud termodinámica que indica el grado de desorden interno de un sistema.
2. SICOLOGÍA Medida que indica el grado de información no aprovechable de una fuente, en función del número de respuestas posibles.

entropía

 
f. termo. Función de estado que mide la parte no utilizable de energía de un sistema.
cib. Medida del grado de desorden.
Traducciones

entropía

entropie

entropía

Entropie

entropía

entropy

entropía

entropie

entropía

entropia

entropía

entropie

entropía

entropia

entropía

Entropia

entropía

Ентропия

entropía

entropía

entropía

entropi

entropía

אנטרופיה

entropía

エントロピー

entropía

엔트로피

entropía

entropi

entropía

SFentropy
Ejemplos ?
En un proceso irreversible, la entropía de un sistema aislado aumenta y no es posible devolverlo al estado termodinámico físico anterior.
Por ejemplo, la frecuencia de palabras sigue la Ley de Zipf y la entropía (alrededor de 10 bits por palabra) es similar a aquella de textos en latín.
Se ha señalado que la dirección del tiempo está relacionada con el aumento de entropía, aunque eso parece deberse a las peculiares condiciones que se dieron durante el Big Bang.
Aunque algunos científicos como Penrose han argumentado que dichas condiciones no serían tan peculiares si consideramos que existe un principio o teoría física más completa que explique por qué nuestro universo, y tal vez otros, nacen con condiciones iniciales aparentemente improbables, que se reflejan en una bajísima entropía inicial.
La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley cero), el principio de conservación de la energía (primera ley), el aumento temporal de la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).
Stephen Hawking propone en uno de sus libros que la única forma de que no aumente la entropía sería que la información de todo lo que atraviese el horizonte de sucesos siga existiendo de alguna forma.
La teoría de la información proporciona herramientas para evaluar la seguridad de los sistemas criptográficos. Por ejemplo, en los sistemas de cifrado se estudia la entropía de la clave, de los criptogramas y de los mensajes en claro.
El tema está siendo motivo de revisión; actualmente Hawking se ha retractado de su teoría inicial y ha admitido que la entropía de la materia se conserva en el interior de un agujero negro (véase enlace externo).
Como el mensaje en claro suele estar expresado en idiomas humanos, también es interesante el estudio de su entropía y en especial su ratio de entropía.
El legado que entrega Hawking en esta materia es de aquellos que, con poca frecuencia en física, son calificados de bellos. Entrega los elementos matemáticos para comprender que los agujeros negros tienen una entropía gravitacional intrínseca.
Concretamente esta entropía generalizada debe definirse como:: S_ gen = S_ conv + frac c3k 4G hbar A Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de gravitación universal y hbar es la constante de Planck racionalizada, y A el área del horizonte de sucesos.
La hipótesis de que los agujeros negros contienen una entropía y que, además, ésta es finita, requiere para ser consecuente que tales agujeros emitan radiaciones térmicas, lo que al principio parece increíble.