• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    Preguntas y respuestas:los investigadores advierten sobre el peligro y piden una pausa en la introducción de la IA en las escuelas
    Crédito:Universidad de Colorado en Boulder

    En las escuelas K-12 de todo el país, está en marcha una nueva especie de fiebre del oro:las aulas de todo el país están compitiendo para llevar al aula las últimas herramientas de inteligencia artificial, como las plataformas impulsadas por el chatbot ChatGPT.



    Alex Molnar, director del Centro Nacional de Política Educativa (NEPC) de CU Boulder, ve un peligro en esta prisa por introducir la IA en las escuelas. Estas plataformas, afirmó, utilizan algoritmos opacos y generalmente propietarios, lo que hace que su funcionamiento interno sea un misterio para los educadores, padres y estudiantes por igual.

    "Lo que tenemos es un montón de promesas que la IA cumplirá según lo prometido", dijo Molnar, profesor investigador de la Facultad de Educación. "El problema es que actualmente no hay manera de evaluar de forma independiente las afirmaciones que se hacen."

    En un nuevo informe, Molnar y sus colegas destacan los posibles peligros de la IA en la educación y piden una "pausa" indefinida en la integración de la IA en el aprendizaje K-12. Los coautores incluyeron a Ben Williamson de la Universidad de Edimburgo en el Reino Unido y Faith Boninger, profesora asistente de investigación en educación en CU Boulder.

    Molnar explica por qué la IA es una apuesta arriesgada para la educación y qué pueden hacer los padres preocupados y otras personas para involucrarse.

    ¿Las nuevas tecnologías plantean riesgos para la educación K-12?

    Ha habido todo tipo de problemas asociados con el uso de plataformas digitales en las escuelas, incluso antes de la adopción generalizada de la inteligencia artificial.

    Los datos de los estudiantes a menudo no están protegidos adecuadamente. Por ejemplo, ha habido todo tipo de filtraciones de proveedores externos y no existe ninguna ley o política efectiva que los responsabilice. También se están realizando una gran cantidad de pruebas beta en las escuelas. Las afirmaciones de marketing suenan bien, pero las plataformas digitales a menudo no producen los resultados prometidos y están plagadas de problemas técnicos.

    Las tecnologías digitales han hecho que sea difícil o imposible responder preguntas fundamentales, como:¿Quién decide el contenido curricular que se integra en estas plataformas? ¿Quién revisa su trabajo?

    ¿Podría la IA empeorar esos problemas?

    Todos los problemas relacionados con las tecnologías digitales tienden a verse amplificados por la inteligencia artificial.

    La llamada IA ​​utiliza algoritmos y enormes cantidades de potencia informática para producir resultados basados ​​en innumerables cálculos de probabilidades. Por ejemplo, ¿cuál es la probabilidad de que la siguiente palabra de una secuencia sea "jugo"? Estos cálculos no producen "verdad" o incluso, necesariamente, precisión. Producen resultados probabilísticos.

    Actualmente, la construcción y operación de algoritmos de IA está en gran medida fuera de la vista del público y sin ninguna responsabilidad pública. Sin embargo, tanto los especialistas en marketing como las entidades gubernamentales están presionando a los escolares para que se los considere a la vanguardia de esta supuesta revolución digital, entregando cada vez más procesos escolares a tecnólogos con poco o ningún conocimiento de pedagogía o currículo escolar. /P>

    Mucha gente llama a las herramientas de IA una "caja negra". ¿Qué significa eso?

    Para usar una explicación del viejo mundo, imagínese si dijera:"Me gustaría ver el libro de texto de geografía de mi hijo". Podrías decir:"Tengo algunos problemas aquí". Podrías hablar con alguien al respecto, alguien que posiblemente pueda explicar esos problemas. Pero con la IA no puedes hacer eso.

    No puedes entrar y decir, por ejemplo:"¿Cómo funcionó la puntuación de esto?" La respuesta sería:"Bueno, no lo sabemos". "¿Cómo sabemos que este contenido es exacto?" "Bueno, eso tampoco lo sabemos."

    ¿Existe entonces la preocupación de que la IA pueda tomar decisiones en lugar de los educadores o los padres?

    Puede utilizar la IA para ayudarle a determinar si un niño hizo trampa. Se utiliza para determinar si un niño debe o no estar en este o aquel programa. Puedes utilizar la IA para decidir todo tipo de cosas sobre un niño, y el niño queda encerrado con pocos o ningún recurso.

    Los padres pueden quejarse todo lo que quieran. Todavía no pueden obtener la información sobre el fundamento de una decisión tomada por AI porque el director no la tiene. El profesor no lo tiene. El superintendente no lo tiene. Está oculto detrás de una cortina patentada por un proveedor privado.

    Aboga por una "pausa" en el uso de la IA en las escuelas. ¿Cómo sería eso?

    La solución sería que las legislaturas estatales, mediante estatuto, digan, en esencia:las escuelas públicas de este estado no pueden adoptar programas de inteligencia artificial a menos y hasta que esos programas estén certificados por esta entidad gubernamental; tendrían que crear la entidad. Ha revisado estos programas. Ha dicho que su uso es seguro y define cuáles son los usos apropiados del programa y para quién.

    En otras palabras, nada funciona en las escuelas hasta que tengamos el marco legal y regulatorio y la capacidad institucional para evaluar de forma independiente las plataformas de IA que se proponen para uso escolar.

    ¿Qué pueden hacer los padres, o cualquier otra persona que esté preocupada por este tema?

    Exija que sus representantes tomen en serio estas cuestiones; en primer lugar, que legislen una pausa en la adopción de la IA en las escuelas. Período. Luego pueden pedir a sus representantes que creen una entidad estatal diseñada para regular el uso de la IA en las escuelas.

    Este es un problema político. Esto no es un problema técnico.

    Tenemos una larga historia de empresas tecnológicas que no siguen sus propias reglas, que en sí mismas son ridículamente inadecuadas. Para cualquiera que esté tratando seriamente de descubrir cómo utilizar responsablemente la IA en la educación, si no están hablando de acción política, en realidad no están hablando. Los tecnólogos no nos salvarán.

    Más información: Williamson, B., Molnar, A. y Boninger, F. (2024). Es hora de hacer una pausa:sin una supervisión pública eficaz, la IA en las escuelas hará más daño que bien. Boulder, CO:Centro Nacional de Políticas Educativas. nepc.colorado.edu/publication/ai

    Proporcionado por la Universidad de Colorado en Boulder




    © Ciencia https://es.scienceaq.com