3
UnADM AL 125 08 534 10 de junio de 2015 La entropía y el órden. Termodinámica. Por mucho tiempo los antiguos trataron de calcular y dar nombre a las propiedades de la materia que hacen que las cosas se desordenen. Muchos textos y artículos se refieren a la entropía como una medida del “desorden” o la “aleatoriedad”, pero no fue hasta el año de 1850 que el físico y matemático, Julius Emmanuel Rudolf Clausius le dio el nombre de entropía que viene del Griego (ἐντροπία) y significa evolución o transformación. Más tarde en 1877 el físico Ludwig Eduard Boltzmann, encontró la forma de demostrar matemáticamente este concepto desde el punto de vista de la probabilidad. 1. Para aclarar las ideas anteriores investiga y explica lo siguiente: • Las razones para hacer la relación entre entropía y orden. En la mayoría de los procesos naturales intervienen miles de millones de átomos que se pueden mover en infinidad de direcciones. Si, por casualidad, la disposición de átomos estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio, cualquier cambio espontáneo, disminuiría ese orden, o por decirlo de otra manera, aumentaría el desorden. De acuerdo con el segundo principio de la termodinámica, la entropía del universo está en constante aumento; es decir, la distribución de energía en el universo está constantemente igualándose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energía aumenta también el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partículas que lo componen no es sino otro aspecto del segundo principio y la entropía cabe considerarla como una medida del desorden que existe en el universo. • Las ventajas y desventajas de tal relación. Cuando las cosas se observan desde esta perspectiva, es fácil ver la mano del segundo principio por doquier porque los cambios naturales actúan claramente en la dirección del desorden; para restaurar el orden hace falta un esfuerzo especial. Los objetos se des-colocan, las cosas se desordenan... Y para tener las cosas a punto es preciso estar constantemente arreglando y limpiando el polvo y ordenando. INFORME GEOLOGÍA 101 1

La entropía y el desorden

Embed Size (px)

DESCRIPTION

La entropía y el desorden

Citation preview

  • UnADM AL 125 08 534 10 de junio de 2015

    La entropa y el rden. Termodinmica.

    Por mucho tiempo los antiguos trataron de calcular y dar nombre a las propiedades de la materia que hacen que las cosas se desordenen. Muchos textos y artculos se refieren a la entropa como una medida del desorden o la aleatoriedad, pero no fue hasta el ao de 1850 que el fsico y matemtico, Julius Emmanuel Rudolf Clausius le dio el nombre de entropa que viene del Griego () y significa evolucin o transformacin. Ms tarde en 1877 el fsico Ludwig Eduard Boltzmann, encontr la forma de demostrar matemticamente este concepto desde el punto de vista de la probabilidad.

    1. Para aclarar las ideas anteriores investiga y explica lo siguiente:

    Las razones para hacer la relacin entre entropa y orden.

    En la mayora de los procesos naturales intervienen miles de millones de tomos que se pueden mover en infinidad de direcciones. Si, por casualidad, la disposicin de tomos estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio, cualquier cambio espontneo, disminuira ese orden, o por decirlo de otra manera, aumentara el desorden. De acuerdo con el segundo principio de la termodinmica, la entropa del universo est en constante aumento; es decir, la distribucin de energa en el universo est constantemente igualndose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energa aumenta tambin el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partculas que lo componen no es sino otro aspecto del segundo principio y la entropa cabe considerarla como una medida del desorden que existe en el universo.

    Las ventajas y desventajas de tal relacin.

    Cuando las cosas se observan desde esta perspectiva, es fcil ver la mano del segundo principio por doquier porque los cambios naturales actan claramente en la direccin del desorden; para restaurar el orden hace falta un esfuerzo especial. Los objetos se des-colocan, las cosas se desordenan... Y para tener las cosas a punto es preciso estar constantemente arreglando y limpiando el polvo y ordenando.

    INFORME GEOLOGA 101 )1

  • La relacin entre entropa y la carencia de informacin.

    La conexin de la entropa con la informacin fue establecida por Shannon y Weaver en su teora de informacin. Si el sistema es uno de comunicacin, en este caso, la informacin transmitida tender a degradarse (a desordenarse); a medida que un mensaje circula, el ruido lo altera y el contenido original se va desordenando (un chisme, un "telfono roto", una fotocopia de una fotocopia de una fotocopia, etc.). Ellos proponan entonces mecanismos de retroalimentacin que permitieran mejorar la relacin entre un mensaje enviado y un mensaje recibido. Y para hacerlo, la frmula de entropa de la termodinmica result apropiada. Mientras que la entropa mide el nivel de desorden en el sistema, es decir la incertidumbre; la informacin representa el orden, la certidumbre. Por tanto, la informacin correspondera a entropa negativa dando la posibilidad de medir la cantidad de informacin en un sistema (o en un mensaje para compararlo con la cantidad enviada y corregir o reenviar en caso de prdida de informacin).

    Las razones para relacionar la entropa con la carencia de informacin.

    En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de informacin. La entropa tambin se puede considerar como la cantidad de informacin promedio que contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca informacin, mientras que palabras menos frecuentes como "corren", "nio", "perro" aportan ms informacin. Si de un texto dado borramos un "que", seguramente no afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra "nio" del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima. El concepto de entropa es usado en termodinmica, mecnica estadstica y teora de la informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una medida de la incertidumbre y de la informacin necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el de entropa estn ampliamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto fuera percibido.

    Las ventajas y desventajas de usar la comparacin entre entropa y carencia de informacin.

    La informacin es tratada como magnitud fsica, caracterizando la informacin de una secuencia de smbolos utilizando la Entropa. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos mtodos de envo de informacin o la cantidad de informacin til que se pueda enviar a travs de un canal. La informacin necesaria para especificar un sistema fsico tiene que ver con su entropa.

    Los fundamentos fsicos de ambas comparaciones y cul de las dos es la que consideras que ayudan a entender mejor el concepto de entropa.

    La vida es el conflicto de lo singular contra lo universal; del desequilibrio de cada sistema contra el equilibrio mximo; del esfuerzo de mantenerse inestable en relacin con la mxima estabilidad a que tiende la naturaleza y del orden contra el caos. La materia y la energa se

    INFORME GEOLOGA 101 )2

  • mueven simultneamente a favor y en contra de la vida. Por su gran diferenciacin, los sistemas compuestos por materia viva, son inestables y frgiles y cada uno de ellos, como unidad individual, llega necesariamente al momento de su desaparicin, de su incorporacin al equilibrio y a la estabilidad: a la muerte que es la mxima entropa del sistema. Para seguir siendo la materia viva necesita consumir y degradar energa continuamente; energa que los sistemas transforman en trabajo que a su vez, este trabajo, es utilizado en las funciones necesarias para la obtencin de energa, para el crecimiento y el desarrollo; as como los seres gastamos energa y la reponemos mediante la comida.

    INFORME GEOLOGA 101 )3