• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La IA utilizada por las organizaciones humanitarias podría profundizar las tendencias neocoloniales

    Crédito:Liu zishan / Shutterstock.com

    Inteligencia artificial, o IA, está atravesando un período de expansión masiva. Esto no se debe a que las computadoras hayan alcanzado una conciencia similar a la humana, pero debido a los avances en el aprendizaje automático, donde las computadoras aprenden de enormes bases de datos cómo clasificar nuevos datos. A la vanguardia están las redes neuronales que han aprendido a reconocer rostros humanos o jugar al Go.

    El reconocimiento de patrones en los datos también se puede utilizar como herramienta predictiva. La IA se está aplicando a los ecocardiogramas para predecir enfermedades cardíacas, a los datos del lugar de trabajo para predecir si los empleados se van a ir, ya los feeds de las redes sociales para detectar signos de depresión incipiente o tendencias suicidas. Cualquier ámbito de la vida en el que haya datos abundantes, y eso significa prácticamente todos los aspectos de la vida, está siendo vigilado por el gobierno o las empresas para la aplicación de la inteligencia artificial.

    Una actividad que actualmente parece distante de AI es el humanitarismo; la organización de ayuda sobre el terreno a otros seres humanos en crisis debido a la guerra, hambruna u otro desastre. Pero las organizaciones humanitarias también adoptarán la IA. ¿Por qué? Porque parece capaz de responder preguntas en el corazón del humanitarismo, preguntas como a quién debemos salvar, y cómo ser eficaz a escala. La IA también resuena fuertemente con los modos de pensar y hacer humanitarios existentes, en particular, los principios de neutralidad y universalidad. El humanitarismo (se cree) no toma partido, es imparcial en su aplicación y ofrece ayuda independientemente de las particularidades de una situación local.


    La forma en que el aprendizaje automático consume macrodatos y produce predicciones ciertamente sugiere que puede comprender la enormidad del desafío humanitario y proporcionar una respuesta basada en datos. Pero la naturaleza de las operaciones de aprendizaje automático significa que en realidad profundizarán algunos de los problemas del humanitarismo, e introducir nuevos propios.

    Las matemáticas

    Explorar estas preguntas requiere un pequeño desvío hacia las operaciones concretas del aprendizaje automático, si vamos a eludir la desinformación y la mistificación que se asocia al término IA. Porque no hay inteligencia en la inteligencia artificial. Ni aprende realmente, aunque su nombre técnico es aprendizaje automático.

    La IA es simplemente una minimización matemática. Recuerda cómo en la escuela ajustarías una línea recta a un conjunto de puntos, eligiendo la línea que minimiza las diferencias en general? El aprendizaje automático hace lo mismo con patrones complejos, ajustar las características de entrada a los resultados conocidos minimizando una función de costo. El resultado se convierte en un modelo que se puede aplicar a nuevos datos para predecir el resultado.

    Todos y cada uno de los datos se pueden enviar a través de algoritmos de aprendizaje automático. Todo lo que se pueda reducir a números y etiquetar con un resultado se puede utilizar para crear un modelo. Las ecuaciones no saben ni les importa si los números representan las ventas de Amazon o las víctimas del terremoto.

    Esta banalidad del aprendizaje automático también es su poder. Es una compresión numérica generalizada de preguntas que importan:no hay comprensiones dentro del cálculo; los patrones indican correlación, no causalidad. La única inteligencia viene en el mismo sentido que la inteligencia militar; es decir, focalización. Las operaciones son las de minimizar la función de costo para optimizar el resultado.

    Y los modelos producidos por el aprendizaje automático pueden ser difíciles de convertir en razonamiento humano. ¿Por qué eligió a esta persona como un riesgo de libertad condicional? ¿Qué representa ese patrón? No podemos decirlo necesariamente. Entonces, hay una opacidad en el corazón de los métodos. No aumenta la agencia humana, sino que la distorsiona.

    Lógica de los poderosos

    El aprendizaje automático no solo toma decisiones sin dar razones, modifica nuestra idea misma de la razón. Es decir, cambia lo cognoscible y lo que se entiende como real.

    Por ejemplo, en algunas jurisdicciones de EE. UU., si un algoritmo produce una predicción de que es probable que una persona detenida reincida, a esa persona se le negará la libertad bajo fianza. La búsqueda de patrones en los datos se convierte en una autoridad calculadora que desencadena consecuencias sustanciales.

    Aprendizaje automático, luego, no es solo un método, sino una filosofía maquínica donde se entiende que el cálculo abstracto accede a una verdad que se ve como superior a la toma de sentido de la percepción ordinaria. Y como tal, los cálculos de la ciencia de datos pueden terminar contando más que un testimonio.

    Por supuesto, el campo humanitario no es ingenuo sobre los peligros de la datificación. Es bien sabido que el aprendizaje automático podría propagar la discriminación porque aprende de los datos sociales que a menudo están sesgados. Por lo tanto, las instituciones humanitarias naturalmente serán más cuidadosas que la mayoría para garantizar todas las salvaguardias posibles contra datos de capacitación sesgados.

    Pero el problema va más allá del prejuicio explícito. El efecto más profundo del aprendizaje automático es producir las categorías a través de las cuales pensaremos en nosotros mismos y en los demás. El aprendizaje automático también produce un cambio hacia la preferencia:excluir futuros sobre la base de la correlación en lugar de la causalidad. Esto construye el riesgo de la misma manera que Twitter determina los temas de tendencia, asignar y retener recursos de una manera que demarque algorítmicamente a los que merecen y a los que no lo merecen.

    Quizás deberíamos estar particularmente preocupados por estas tendencias porque a pesar de sus mejores intenciones, la práctica del humanitarismo muestra a menudo tendencias neocoloniales. Al reclamar neutralidad y universalidad, los algoritmos afirman la superioridad del conocimiento abstracto generado en otros lugares. Al incorporar la lógica de los poderosos para determinar lo que les sucede a las personas en la periferia, La IA humanitaria se convierte en un mecanismo neocolonial que actúa en lugar de un control directo.

    Como son las cosas, El aprendizaje automático y la llamada IA ​​no supondrán una salvación para el humanitarismo. En lugar de, profundizará la ya profunda dinámica neocolonial y neoliberal de las instituciones humanitarias a través de la distorsión algorítmica.

    Pero ningún aparato es un sistema cerrado; el impacto del aprendizaje automático es contingente y puede cambiarse. Esto es tan importante para la IA humanitaria como para la IA en general, ya que, si una técnica alternativa no se moviliza mediante enfoques como los consejos populares, la próxima generación de escándalos humanitarios será impulsada por AI.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com