La entropía, un concepto fundamental en física, mide la cantidad de desorden o aleatoriedad en un sistema. Cuanto mayor es la entropía, más desordenado es el sistema. En física clásica, la entropía está asociada con el número de arreglos o microestados posibles de un sistema y aumenta con el número de grados de libertad. Sin embargo, en el ámbito cuántico, la entropía adquiere un carácter más profundo y esquivo.
Una de las características clave de la mecánica cuántica es el entrelazamiento, un fenómeno en el que las partículas quedan íntimamente conectadas de tal manera que sus estados no pueden describirse de forma independiente. El entrelazamiento da lugar a un tipo de correlación no clásico que desafía la noción clásica de localidad. El estudio del entrelazamiento se ha vuelto central para la teoría de la información cuántica y tiene implicaciones para la computación cuántica, la criptografía y otras tecnologías emergentes.
En su estudio, los investigadores desarrollaron un marco para cuantificar la entropía del entrelazamiento cuántico. Consideraron un sistema de dos qubits, la unidad básica de información cuántica, que pueden entrelazarse de varias maneras. Explotando una técnica matemática conocida como tomografía de estado cuántico, pudieron reconstruir el estado cuántico de los qubits entrelazados y calcular su entropía de entrelazamiento.
Los resultados del experimento revelaron que la entropía de entrelazamiento aumenta con el grado de entrelazamiento entre los qubits. Esto significa que cuanto más entrelazados estén los qubits, mayor será la entropía del sistema. Este comportamiento contradice la noción clásica de entropía, que normalmente disminuye a medida que un sistema se vuelve más ordenado.
El descubrimiento de una entropía del entrelazamiento cuántico desafía la comprensión tradicional de la entropía y abre nuevas vías para la investigación de los fundamentos cuánticos y la teoría de la información cuántica. También subraya la naturaleza profunda y contraintuitiva de la mecánica cuántica, donde conceptos como la entropía adquieren significados nuevos e inesperados.