Leyes

  • Ley de conservación de energía: Determina que la cantidad de energía total será siempre la misma, aunque se pueda transformar en otras energías.
  • Ley de entropía: Determina que la cantidad de entropía en el universo tiende a incrementar en el tiempo. Es decir, el desorden dentro de sistemas tiende a incrementar hasta alcanzar un punto de equilibrio (Un punto de mayor desorden)
  • Tercera ley: Si la entropía se lleva al cero absoluto, será una definida.
  • Ley de equilibro térmico: Si dos sistemas están en equilibrio térmico de forma independiente con un tercer sistema, estarán igualmente en equilibrio entre si. Es decir:

La entropía en teoría de la información tiene que ver con la incertidumbre. Es la cantidad de ruido o desorden que contiene o libera un sistema.

Se puede igualmente considerar como la cantidad de información promedio en símbolos. Los símbolos menos probables aportan más información. Se puede completar esta definición con la lengua española, donde conectores y pronombres ocupan la mayor parte del habla (ella, los, que, a), y verbos o sujetos (haré, tarea, casa) aportan contexto específico.

Este concepto es aplicable en áreas como termodinámica, mecánica, estadística y teoría de la información. Es una medida de incertidumbre, y el conocimiento de reducirla. Cada variable difícil de medir es una incertidumbre.