• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Física
    Entropía:la fuerza invisible que trae desorden al universo
    La entropía describe cómo ocurre el desorden en un sistema tan grande como el universo o tan pequeño como un termo lleno de café. José A. Bernat Bacete/Getty Images

    No se puede volver a poner fácilmente la pasta de dientes en el tubo. No se puede esperar que las moléculas de vapor vuelvan a migrar espontáneamente para formar una bola de agua. Si sueltas un montón de cachorros de corgi en un campo, es muy poco probable que puedas volver a juntarlos en una jaula sin hacer un montón de trabajo. Estos son los problemas asociados con la Segunda Ley de la Termodinámica, también conocida como la Ley de la Entropía.

    Contenido
    1. La Segunda Ley de la Termodinámica
    2. La definición de trastorno
    3. La entropía es confusa
    <h2> , '' :pageVisible }" xmlns='http://www.w3.org/2000/svg' width='22' height='10' viewbox='0 0 28.396 13.211'> La Segunda Ley de la Termodinámica

    La termodinámica es importante para varias disciplinas científicas, desde la ingeniería hasta las ciencias naturales, la química, la física e incluso la economía. Un sistema termodinámico es un espacio confinado, que no deja entrar ni salir energía.

    La primera ley de la termodinámica tiene que ver con la conservación de la energía; probablemente recuerdes haber oído antes que la energía en un sistema cerrado permanece constante ("la energía no puede crearse ni destruirse"), a menos que sea manipulada desde el exterior. Sin embargo, la energía cambia constantemente de forma:un incendio puede convertir la energía química de una planta en energía térmica y electromagnética. Una batería convierte la energía química en energía eléctrica. El mundo gira y la energía se vuelve menos organizada.

    "La segunda ley de la termodinámica se llama ley de la entropía", nos dijo en un correo electrónico Marko Popovic, investigador postdoctoral en Biotermodinámica en la Facultad de Ciencias de la Vida de la Universidad Técnica de Munich. "Es una de las leyes más importantes de la naturaleza".

    La entropía es una medida del desorden en un sistema cerrado. De acuerdo con la segunda ley, la entropía en un sistema casi siempre aumenta con el tiempo:puede trabajar para crear orden en un sistema, pero incluso el trabajo que se invierte en reordenar aumenta el desorden como subproducto, generalmente en forma de calor. Dado que la medida de la entropía se basa en probabilidades, es, por supuesto, posible que la entropía disminuya en un sistema en ocasiones, pero eso es estadísticamente muy poco probable.

    <h2> , '' :pageVisible }" xmlns='http://www.w3.org/2000/svg' width='22' height='10' viewbox='0 0 28.396 13.211'> La definición de trastorno

    Es más difícil de lo que piensas encontrar un sistema que no deje entrar o salir energía (nuestro universo es un buen ejemplo de uno que tenemos), pero la entropía describe cómo ocurre el desorden en un sistema tan grande como el universo o como pequeño como un termo lleno de café.

    Sin embargo, la entropía no tiene que ver con el tipo de desorden en el que piensas cuando encierras a un grupo de chimpancés en una cocina. Tiene más que ver con cuántas permutaciones posibles de desorden se puede hacer en esa cocina en lugar de cuán grande un lío es posible. Por supuesto, la entropía depende de muchos factores:cuántos chimpancés hay, cuántas cosas se almacenan en la cocina y qué tan grande es la cocina. Entonces, si tuvieras que mirar dos cocinas, una muy grande y equipada hasta los topes pero meticulosamente limpia, y otra que es más pequeña con menos cosas, pero ya bastante destrozada por los chimpancés, es tentador decir que la habitación más desordenada tiene más entropía, pero ese no es necesariamente el caso. La entropía se preocupa más por cuántos estados diferentes son posibles que lo desordenado que está en este momento; un sistema, por lo tanto, tiene más entropía si hay más moléculas y átomos en él, y si es más grande. Y si hay más chimpancés.

    <h2> , '' :pageVisible }" xmlns='http://www.w3.org/2000/svg' width='22' height='10' viewbox='0 0 28.396 13.211'> La entropía es confusa

    La entropía podría ser el concepto científico más verdadero que la menor cantidad de personas realmente entiende. El concepto de entropía puede ser muy confuso, en parte porque en realidad hay diferentes tipos. El matemático húngaro John von Neumann lamentó la situación de la siguiente manera:"Quien use el término 'entropía' en una discusión siempre gana, ya que nadie sabe qué es realmente la entropía, por lo que en un debate uno siempre tiene la ventaja".

    "Es un poco difícil definir la entropía", dice Popovic. "Quizás se defina mejor como una propiedad termodinámica no negativa, que representa una parte de la energía de un sistema que no se puede convertir en trabajo útil. Por lo tanto, cualquier adición de energía a un sistema implica que una parte de la energía se transformará en entropía, aumentando el desorden en el sistema. Por lo tanto, la entropía es una medida del desorden de un sistema".

    Pero no te sientas mal si te confundes:la definición puede variar según la disciplina que la emplee en ese momento:

    A mediados del siglo XIX, un físico alemán llamado Rudolph Clausius, uno de los fundadores del concepto de termodinámica, estaba trabajando en un problema relacionado con la eficiencia de las máquinas de vapor e inventó el concepto de entropía para ayudar a medir la energía inútil que no se puede convertir en trabajo útil. Un par de décadas más tarde, Ludwig Boltzmann (el otro "fundador" de la entropía) usó el concepto para explicar el comportamiento de una inmensa cantidad de átomos:aunque es imposible describir el comportamiento de cada partícula en un vaso de agua, todavía es posible predecir su comportamiento colectivo cuando se calientan usando una fórmula para la entropía.

    "En la década de 1960, el físico estadounidense E.T. Jaynes interpretó la entropía como información que nos falta para especificar el movimiento de todas las partículas en un sistema", dice Popovic. "Por ejemplo, un mol de gas consta de 6 x 10 23 partículas Por lo tanto, para nosotros es imposible describir el movimiento de cada partícula, por lo que hacemos lo siguiente mejor, definiendo el gas no a través del movimiento de cada partícula, sino a través de las propiedades de todas las partículas combinadas:temperatura, presión , energía total. La información que perdemos cuando hacemos esto se conoce como entropía".

    Y el aterrador concepto de "la muerte térmica del universo" no sería posible sin la entropía. Debido a que nuestro universo probablemente comenzó como una singularidad, un punto de energía ordenado infinitesimalmente pequeño, que se hinchó y continúa expandiéndose todo el tiempo, la entropía crece constantemente en nuestro universo porque hay más espacio y, por lo tanto, más estados potenciales de desorden para los átomos aquí para adoptar. Los científicos han planteado la hipótesis de que, mucho después de que tú y yo nos hayamos ido, el universo finalmente alcanzará un punto de máximo desorden, momento en el que todo tendrá la misma temperatura, sin focos de orden (como estrellas y chimpancés) que se encuentren.

    Y si sucede, tendremos que agradecérselo a la entropía.

    Ahora eso es interesante

    El científico del siglo XX Sir Arthur Eddington pensó que el concepto de entropía era tan importante para la ciencia que escribió en La naturaleza del mundo físico en 1928:"Creo que la ley de que la entropía siempre aumenta ocupa la posición suprema entre las leyes de la naturaleza. ... Si se descubre que su teoría está en contra de la Segunda Ley de la Termodinámica, no puedo darle ninguna esperanza; no hay nada para que se derrumbe en la más profunda humillación".




    © Ciencia https://es.scienceaq.com