• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Uso de los secretos de Wall Street para reducir el costo de la infraestructura en la nube

    Crédito:CC0 Public Domain

    Los inversores del mercado de valores a menudo se basan en las teorías del riesgo financiero que les ayudan a maximizar los rendimientos al tiempo que minimizan las pérdidas financieras debidas a las fluctuaciones del mercado. Estas teorías ayudan a los inversores a mantener una cartera equilibrada para garantizar que nunca perderán más dinero del que están dispuestos a desprenderse en un momento dado.

    Inspirado por esas teorías, Los investigadores del MIT en colaboración con Microsoft han desarrollado un modelo matemático "consciente del riesgo" que podría mejorar el rendimiento de las redes de computación en la nube en todo el mundo. Notablemente, La infraestructura en la nube es extremadamente cara y consume gran parte de la energía del mundo.

    Su modelo tiene en cuenta las probabilidades de falla de los enlaces entre los centros de datos de todo el mundo, similar a predecir la volatilidad de las acciones. Luego, ejecuta un motor de optimización para asignar el tráfico a través de rutas óptimas para minimizar las pérdidas, maximizando el uso general de la red.

    El modelo podría ayudar a los principales proveedores de servicios en la nube, como Microsoft, Amazonas, y Google:utilizan mejor su infraestructura. El enfoque convencional es mantener los enlaces inactivos para manejar cambios de tráfico inesperados como resultado de fallas en los enlaces. que es un desperdicio de energía, banda ancha, y otros recursos. El nuevo modelo, llamado TeaVar, por otra parte, garantiza que durante un porcentaje de tiempo objetivo, digamos, 99,9 por ciento:la red puede manejar todo el tráfico de datos, por lo que no es necesario mantener inactivos los enlaces. Durante ese 0.01 por ciento del tiempo, el modelo también mantiene la caída de datos lo más baja posible.

    En experimentos basados ​​en datos del mundo real, el modelo soportó tres veces el rendimiento del tráfico que los métodos tradicionales de ingeniería de tráfico, manteniendo el mismo alto nivel de disponibilidad de la red. Se presentará un documento que describe el modelo y los resultados en la conferencia ACM SIGCOMM esta semana.

    Una mejor utilización de la red puede ahorrarles a los proveedores de servicios millones de dólares, pero los beneficios se "filtrarán" a los consumidores, dice el coautor Manya Ghobadi, Profesor Asistente de Desarrollo de Carrera TIBCO en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT e investigador del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL).

    "Tener una mayor infraestructura utilizada no solo es bueno para los servicios en la nube, también es mejor para el mundo, "Dice Ghobadi." Las empresas no tienen que comprar tanta infraestructura para vender servicios a los clientes. Más, Ser capaz de utilizar de manera eficiente los recursos del centro de datos puede ahorrar enormes cantidades de consumo de energía por parte de la infraestructura de la nube. Entonces, hay beneficios tanto para los usuarios como para el medio ambiente al mismo tiempo ".

    Junto a Ghobadi en el papel están sus alumnos Jeremy Bogle y Nikhil Bhatia, ambos de CSAIL; Ishai Menache y Nikolaj Bjorner de Microsoft Research; y Asaf Valadarsky y Michael Schapira de la Universidad Hebrea.

    En el dinero

    Los proveedores de servicios en la nube utilizan redes de cables de fibra óptica que funcionan bajo tierra, conectando centros de datos en diferentes ciudades. Para enrutar el tráfico, los proveedores confían en el software de "ingeniería de tráfico" (TE) que asigna de manera óptima el ancho de banda de datos (cantidad de datos que se pueden transferir al mismo tiempo) a través de todas las rutas de la red.

    El objetivo es garantizar la máxima disponibilidad para los usuarios de todo el mundo. Pero eso es un desafío cuando algunos enlaces pueden fallar inesperadamente, debido a caídas en la calidad de la señal óptica como resultado de cortes o cortes de líneas durante la construcción, entre otros factores. Para mantenerse robusto ante el fracaso, los proveedores mantienen muchos enlaces con una utilización muy baja, al acecho para absorber la carga completa de datos de los enlaces caídos.

    Por lo tanto, es un compromiso complicado entre la disponibilidad y la utilización de la red, lo que permitiría un mayor rendimiento de los datos. Y ahí es donde fallan los métodos tradicionales de TE, dicen los investigadores. Encuentran caminos óptimos basados ​​en varios factores, pero nunca cuantifique la fiabilidad de los enlaces. "Ellos no dicen, 'Este enlace tiene una mayor probabilidad de estar en funcionamiento, eso significa que debería enviar más tráfico aquí, ", Dice Bogle." La mayoría de los enlaces en una red funcionan con una utilización baja y no envían tanto tráfico como podrían estar enviando ".

    En cambio, los investigadores diseñaron un modelo TE que adapta las matemáticas básicas del "valor condicional en riesgo, "una medida de evaluación de riesgos que cuantifica la pérdida promedio de dinero. Al invertir en acciones, si tiene un valor condicional del 99 por ciento de un día en riesgo de $ 50, su pérdida esperada del escenario del 1 por ciento en el peor de los casos ese día es de $ 50. Pero el 99 por ciento de las veces, lo harás mucho mejor. Esa medida se utiliza para invertir en el mercado de valores, que es muy difícil de predecir.

    "Pero las matemáticas se ajustan mejor a nuestro entorno de infraestructura en la nube, "Dice Ghobadi". las fallas de enlace se deben a la antigüedad del equipo, por lo que las probabilidades de falla no cambian mucho con el tiempo. Eso significa que nuestras probabilidades son más confiables, en comparación con el mercado de valores ".

    Modelo consciente de riesgos

    En redes, las cuotas de ancho de banda de datos son análogas al "dinero invertido, "y los equipos de red con diferentes probabilidades de falla son las" existencias "y su incertidumbre de los valores cambiantes. Usando las fórmulas subyacentes, los investigadores diseñaron un modelo "consciente del riesgo" que, como su contraparte financiera, garantiza que los datos llegarán a su destino el 99,9 por ciento del tiempo, pero mantiene la pérdida de tráfico al mínimo durante el 0,1 por ciento de los escenarios de falla del peor de los casos. Eso permite a los proveedores de la nube ajustar la compensación entre disponibilidad y utilización.

    Los investigadores mapearon estadísticamente tres años de potencia de la señal de red de las redes de Microsoft que conecta sus centros de datos a una distribución de probabilidad de fallas en los enlaces. La entrada es la topología de la red en un gráfico, con flujos de datos de origen-destino conectados a través de líneas (enlaces) y nodos (ciudades), con cada enlace asignado un ancho de banda.

    Las probabilidades de falla se obtuvieron al verificar la calidad de la señal de cada enlace cada 15 minutos. Si la calidad de la señal descendió alguna vez por debajo de un umbral de recepción, lo consideraron un fallo de enlace. Todo lo anterior significaba que el enlace estaba funcionando. A partir de ese, el modelo generó un tiempo promedio que cada enlace estuvo activo o inactivo, y calculó una probabilidad de falla (o "riesgo") para cada enlace en cada ventana de tiempo de 15 minutos. A partir de esos datos, fue capaz de predecir cuándo fallarían los enlaces de riesgo en un período de tiempo determinado.

    Los investigadores probaron el modelo con otro software de TE en el tráfico simulado enviado a través de las redes de Google. IBM, ATT, y otros que se extienden por todo el mundo. Los investigadores crearon varios escenarios de falla basados ​​en su probabilidad de ocurrencia. Luego, enviaron demandas de datos simuladas y del mundo real a través de la red e indicaron a sus modelos que comenzaran a asignar ancho de banda.

    El modelo de los investigadores mantuvo enlaces confiables funcionando casi a plena capacidad, mientras se alejan los datos de los enlaces más riesgosos. Sobre enfoques tradicionales, su modelo ejecutó tres veces más datos a través de la red, sin dejar de garantizar que todos los datos lleguen a su destino. El código está disponible gratuitamente en GitHub.


    © Ciencia https://es.scienceaq.com