Significado de entropía

¿Qué es la entropía?

La noción de entropía (del griego ντροπία, que significa “evolución” o “transformación”, y que a su vez deriva de entropé que significa “dar la vuelta” o “cambiar la posición de algo”) refiere, de forma general, a la medida de desorden o desorganización que hay un sistema, que tiende a aumentar el grado de homogeneidad, o a la pérdida de información que se da en el sistema.

Sin embargo, en una definición más precisa y científica propia de la termodinámica, el concepto refiere a una magnitud física que se simboliza con la letra S y que permite calcular la parte de energía que no puede utilizarse para realizar trabajo en un sistema físico.

La entropía en termodinámica

En la termodinámica (que es una rama de la física) la entropía es una función de estado de carácter extensivo. Se utiliza para describir aquellos procesos irreversibles que ocurren dentro de un sistema termodinámico. Si este sistema está aislado, entonces la entropía (la parte no utilizable de energía) tiende a crecer con el paso del tiempo.

El concepto fue acuñado durante el siglo XIX por Rudolf Clausius, para referirse a la medida de desorden que veía en la distribución de las moléculas gaseosas. Con el tiempo, el concepto fue utilizándose progresivamente en los campos que trabajan con la noción de información: la física, la química, la matemática, la informática, etc.

En el año 1877, Ludwig Boltzmann desarrolló una manera de expresar la entropía como un concepto matemático y así poder calcularla desde el enfoque de la probabilidad.

También se denomina entropía de formación a una medida de los compuestos químicos que permite determinar la probabilidad de su formación, en base al nivel de entropía de cada uno de sus elementos constituyentes.

La entropía en la teoría de la información

Dentro de la teoría de la información, se define la entropía de dos maneras. Por un lado, se la define como la medida de la incertidumbre que existe frente a un conjunto de mensajes determinados. Por el otro, se la conceptualiza como la cantidad media de información que contienen los símbolos transmitidos en un mensaje (algunos símbolos pueden aportar más o menos información y ser más o menos probables que otros).

De cualquier forma, la entropía es una medida de la información que se necesita para poder eliminar o al menos reducir el nivel de incertidumbre de la comunicación, lo cual es de vital importancia en la lingüística.

La entropía en lingüística

El concepto de entropía también es utilizado dentro del campo de la lingüística para hacer referencia a la forma en que se organiza y se comunica la información en el discurso humano.

La capacidad de comprensión de un mensaje discursivo varía según diversos factores, tales como el código que se utilice, el medio de comunicación, el ruido de la situación o contexto discursivo, etc. Por ejemplo, cuando se trata de un texto escrito, el mensaje siempre podrá ser comprendido de manera clara si ambos interlocutores utilizan el mismo código (o lenguaje) y si las unidades básicas de comunicación (las letras) se encuentran bien definidas y relacionadas entre sí.

Pero si se trata de un mensaje oral, aparecen otros tipos de factores que pueden dificultar la comprensión, tales como la correcta o incorrecta pronunciación de las palabras, la importancia del lenguaje corporal, la presencia de ruidos en el ambiente, etc.

Artículos Relacionados:

Cómo citar este texto

Enciclopedia de Clasificaciones. (2016). Significado de entropía. Recuperado de: http://www.tiposde.org/fisica/993-significado-de-entropia/