Por Sean Mann
Actualizado el 30 de agosto de 2022
La conversión entre notación binaria y decimal de magnitud con signo es un concepto fundamental en informática, que permite una representación precisa de números enteros positivos y negativos.
Ignore el bit de signo más a la izquierda y los ceros iniciales que aparecen entre el bit de signo y el primer "1". Comenzando desde el bit de datos más a la derecha, asigne potencias sucesivas de dos (2^0, 2^1, 2^2,…) a cada posición. Por ejemplo, en el número de magnitud con signo 10000101 , los bits de datos relevantes son los tres que están más a la derecha, que corresponden a 2^2=4, 2^1=2 y 2^0=1.
Suma las potencias de dos que corresponden a las posiciones donde el bit es 1. En el ejemplo anterior, 4+1=5.
Adjunte un signo negativo si el bit de signo (el bit del extremo izquierdo) es 1; de lo contrario, el número es positivo. Por lo tanto, 10000101 se convierte a -5 en decimal.