• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo la IA está remodelando las escuelas:cinco desafíos y oportunidades clave

    Anucha Tiemsom/Shutterstock

    Cuando OpenAI presentó ChatGPT el 30 de noviembre de 2022, la respuesta fue modesta. En dos meses, la plataforma había acumulado 100 millones de usuarios activos, estableciendo un récord para la aplicación de más rápido crecimiento de la historia. Esta rápida adopción se ha extendido a todos los sectores que dependen del lenguaje humano, y la educación no es una excepción. Las universidades y escuelas de todo el mundo se encontraron luchando por determinar si el trabajo de los estudiantes era realmente suyo o producto de una máquina.

    Para muchos educadores, los detectores de IA parecían una panacea:una forma de distinguir el esfuerzo del engaño. Sin embargo, incluso antes de que existiera ChatGPT, el software de plagio ya había tenido problemas con los falsos positivos, penalizando injustamente a los estudiantes. Las nuevas herramientas de IA no han hecho más que amplificar ese problema. Los estudiantes ahora pueden producir ensayos pulidos con unas pocas teclas, descargando el pensamiento crítico que el aprendizaje debe fomentar. En la carrera por mantenerse al día, los profesores dependen cada vez más de herramientas de detección que clasifican erróneamente el trabajo original como generado por máquinas, lo que genera acusaciones injustificadas de trampa.

    En este artículo examinamos cómo la IA ha impactado a las escuelas en todo el mundo (impulsando las trampas, fomentando la dependencia tecnológica y difundiendo información errónea) y al mismo tiempo revelamos un camino hacia una educación más centrada en el ser humano en una era de cambios tecnológicos sin precedentes.

    Trampas habilitadas por IA

    Xavier Lorenzo/Shutterstock

    ChatGPT y plataformas similares brindan a los estudiantes un nuevo atajo hacia la deshonestidad académica. Más allá de generar ensayos, estas herramientas pueden resolver problemas matemáticos complejos (con precisión variable) e incluso producir código de computadora a partir de indicaciones mínimas. Detectar este tipo de trabajo es notoriamente difícil. En un estudio publicado en PLOS One, los investigadores enviaron ensayos totalmente generados por IA en el sistema de exámenes de un programa de psicología del Reino Unido; El 94% de las presentaciones pasaron desapercibidas. En los cursos de informática, los educadores temen que GitHub Copilot y otras herramientas de generación de código requieran un rediseño completo de los planes de estudio.

    Han aumentado los incidentes de trampas impulsados por la IA. Escocia informó de cientos de casos en los últimos dos años, y una universidad turca arrestó recientemente a un estudiante que usó una cámara disfrazada de botón de camisa (conectada a una IA a través de un enrutador escondido en un zapato) para recibir respuestas durante un examen de ingreso.

    Excesiva dependencia de la tecnología

    Luis Álvarez/Getty Images

    Si bien la IA puede agilizar las operaciones en el aula, una investigación en *Computers &Education* muestra que los estudiantes que dependen en gran medida de estas herramientas exhiben una agencia reducida y aprenden más copiando que interactuando con el contenido. Los docentes también dependen cada vez más de los detectores de plagio basados ​​en inteligencia artificial, a pesar de la evidencia de sus altas tasas de falsos positivos. Una encuesta realizada por el Centro para la Democracia y la Tecnología encontró que dos tercios de una muestra representativa a nivel nacional de 460 instructores estadounidenses utilizan este tipo de herramientas.

    OpenAI ha desarrollado una técnica de marca de agua que identifica de manera confiable el texto de IA, pero el lanzamiento comercial está limitado por las presiones del mercado. Los esfuerzos recientes de Google pueden ofrecer una solución de detección más accesible. Además, algunos educadores utilizan IA para calificar ensayos, lo que genera debates éticos y preocupaciones sobre la privacidad cuando el trabajo de los estudiantes se carga en estos sistemas sin consentimiento.

    Desinformación y alucinaciones

    Rob Dobi/Getty Images

    Los modelos de lenguaje grandes son propensos a sufrir “alucinaciones”:presentan información fabricada en un tono convincente y autoritario. Esto es especialmente problemático en educación, donde el objetivo es enseñar razonamiento basado en hechos. En diciembre de 2023, un estudiante de la escuela secundaria Hingham en Massachusetts recibió una calificación reprobatoria en un proyecto AP de Historia de Estados Unidos después de presentar un texto generado por IA que citaba fuentes inexistentes. La falta de una política anti-IA en la escuela llevó a los padres del estudiante a presentar una demanda para revertir la calificación, una solicitud que el tribunal federal denegó.

    Scientific Reports informa que el 55% de las revisiones de la literatura producidas por ChatGPT-3.5 y el 18% por ChatGPT-4 contenían citas inventadas. A medida que los profesores incorporan la IA en la planificación de las clases, aumenta el riesgo de difundir información falsa entre los estudiantes sin darse cuenta.

    Amplificación de sesgo en modelos de IA

    Tarikvision/Getty Images

    Los sistemas de IA entrenados en vastos conjuntos de datos sin filtrar pueden perpetuar y magnificar los sesgos existentes. OpenAI reconoce que sus modelos tienden hacia puntos de vista occidentales y favorecen las aportaciones en inglés. Este sesgo puede perjudicar a los hablantes no nativos de inglés, ya que los detectores de IA marcan con mayor frecuencia su trabajo como generado por máquinas.

    Los análisis predictivos utilizados en las escuelas (como las herramientas que pronostican la probabilidad de graduarse de la escuela secundaria) a menudo clasifican erróneamente a los estudiantes de minorías. Un sistema de Wisconsin, en uso desde 2012, identificó repetidamente a los estudiantes negros e hispanos como en riesgo, pero el algoritmo era incorrecto casi las tres cuartas partes de las veces, sesgando las percepciones de los educadores.

    Convertir la IA en una fuerza positiva

    Eyesfoto/Getty Images

    A pesar de sus desafíos, la IA puede mejorar la experiencia educativa cuando se aplica cuidadosamente. Los estudios demuestran que las herramientas de IA sirven como socios eficaces para la lluvia de ideas, generando curiosidad e indagación. Los estudiantes primero deben practicar el pensamiento original antes de aprovechar la IA como tutor para una exploración más profunda. La retroalimentación basada en IA y la generación de contenido en tiempo real pueden crear un entorno de aprendizaje personalizado y con mayor capacidad de respuesta.

    El equilibrio es la clave para desbloquear los beneficios de la IA y al mismo tiempo mitigar sus daños. Para aquellos interesados en el impacto social más amplio de la IA, consulte nuestro análisis de las preocupaciones de Elon Musk sobre DeepMind de Google y el incidente que involucró el diálogo de Google Gemini con un estudiante.




    © Ciencias y Descubrimientos https://es.scienceaq.com