• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    La escritura asistida por IA está en auge en las revistas académicas:he aquí por qué está bien

    Crédito:Unsplash/CC0 Dominio público

    Si busca en Google Scholar la frase "como modelo de lenguaje de IA", encontrará mucha literatura de investigación sobre IA y también algunos resultados bastante sospechosos. Por ejemplo, un artículo sobre tecnología agrícola dice:



    "Como modelo de lenguaje de IA, no tengo acceso directo a artículos o estudios de investigación actuales. Sin embargo, puedo brindarle una descripción general de algunas tendencias y avances recientes..."

    Errores obvios como este no son los únicos signos de que los investigadores recurren cada vez más a herramientas de inteligencia artificial generativa al escribir sus investigaciones. Un estudio reciente examinó la frecuencia de ciertas palabras en la escritura académica (como "encomiable", "meticulosamente" e "intrincado") y descubrió que se volvieron mucho más comunes después del lanzamiento de ChatGPT, hasta el punto de que el 1% de todas las publicaciones Los artículos publicados en 2023 pueden haber contenido texto generado por IA.

    (¿Por qué los modelos de IA abusan de estas palabras? Se especula que es porque son más comunes en el inglés hablado en Nigeria, donde a menudo ocurren elementos clave del entrenamiento de modelos).

    El estudio antes mencionado también analiza datos preliminares de 2024, que indican que la asistencia de escritura por IA es cada vez más común. ¿Es esto una crisis para la erudición moderna o una bendición para la productividad académica?

    ¿Quién debería atribuirse el mérito de la escritura con IA?

    Mucha gente está preocupada por el uso de la IA en artículos académicos. De hecho, la práctica ha sido descrita como "contaminante" de la literatura académica.

    Algunos argumentan que utilizar resultados de IA equivale a plagio. Si tus ideas fueron copiadas y pegadas de ChatGPT, es cuestionable si realmente mereces crédito por ellas.

    Pero existen diferencias importantes entre "plagiar" texto escrito por humanos y texto escrito por IA. Aquellos que plagian el trabajo de los humanos reciben crédito por ideas que deberían haber ido al autor original.

    Por el contrario, es discutible si los sistemas de IA como ChatGPT pueden tener ideas, y mucho menos merecer crédito por ellas. Una herramienta de inteligencia artificial se parece más a la función de autocompletar de su teléfono que a un investigador humano.

    La cuestión del sesgo

    Otra preocupación es que los resultados de la IA puedan estar sesgados de maneras que podrían filtrarse en los registros académicos. Es tristemente célebre que los modelos lingüísticos más antiguos tendieran a retratar a las personas mujeres, negras y/o homosexuales de maneras claramente poco halagadoras, en comparación con las personas masculinas, blancas y/o heterosexuales.

    Este tipo de sesgo es menos pronunciado en la versión actual de ChatGPT.

    Sin embargo, otros estudios han encontrado un tipo diferente de sesgo en ChatGPT y otros grandes modelos de lenguaje:una tendencia a reflejar una ideología política liberal de izquierda.

    Cualquier sesgo de este tipo podría distorsionar sutilmente los escritos académicos producidos con estas herramientas.

    El problema de las alucinaciones

    La preocupación más grave se relaciona con una limitación bien conocida de los sistemas de IA generativa:que a menudo cometen errores graves.

    Por ejemplo, cuando le pedí a ChatGPT-4 que generara una imagen ASCII de un hongo, me proporcionó el siguiente resultado.

    Luego me dijo con confianza que podía usar esta imagen de un "hongo" para mis propios fines.

    Este tipo de errores de exceso de confianza se han denominado "alucinaciones de IA" y "tonterías de IA". Si bien es fácil detectar que la imagen ASCII de arriba no se parece en nada a un hongo (sino más bien a un caracol), puede ser mucho más difícil identificar cualquier error que cometa ChatGPT al examinar la literatura científica o al describir el estado de un debate filosófico.

    A diferencia de (la mayoría) de los humanos, los sistemas de IA no se preocupan fundamentalmente por la verdad de lo que dicen. Si se usan descuidadamente, sus alucinaciones podrían corromper el registro académico.

    ¿Debería prohibirse el texto producido por IA?

    Una respuesta al auge de los generadores de texto ha sido prohibirlos por completo. Por ejemplo, Science, una de las revistas académicas más influyentes del mundo, no permite el uso de texto generado por IA.

    Veo dos problemas con este enfoque.

    El primer problema es práctico:las herramientas actuales para detectar texto generado por IA son muy poco confiables. Esto incluye el detector creado por los propios desarrolladores de ChatGPT, que se desconectó después de que se descubrió que tenía solo una tasa de precisión del 26% (y una tasa de falsos positivos del 9%). Los humanos también cometemos errores al evaluar si algo fue escrito por IA.

    También es posible eludir los detectores de texto de IA. Las comunidades en línea están explorando activamente cómo activar ChatGPT de manera que permitan al usuario evadir la detección. Los usuarios humanos también pueden reescribir superficialmente los resultados de la IA, eliminando efectivamente los rastros de la IA (como el uso excesivo de las palabras "encomiable", "meticulosamente" e "intrincado").

    El segundo problema es que prohibir por completo la IA generativa nos impide aprovechar los beneficios de estas tecnologías. Si se usa bien, la IA generativa puede impulsar la productividad académica al agilizar el proceso de escritura. De esta manera, podría ayudar a ampliar el conocimiento humano. Idealmente, deberíamos intentar aprovechar estos beneficios evitando los problemas.

    El problema es el control de calidad deficiente, no la IA

    El problema más grave de la IA es el riesgo de introducir errores inadvertidos, lo que lleva a estudios descuidados. En lugar de prohibir la IA, deberíamos intentar garantizar que afirmaciones erróneas, inverosímiles o sesgadas no puedan aparecer en el expediente académico.

    Después de todo, los humanos también pueden producir escritos con errores graves, y mecanismos como la revisión por pares a menudo no logran impedir su publicación.

    Necesitamos mejorar para garantizar que los trabajos académicos estén libres de errores graves, independientemente de si estos errores son causados ​​por el uso descuidado de la IA o por una erudición humana descuidada. Esto no sólo es más factible que controlar el uso de la IA, sino que también mejorará los estándares de la investigación académica en su conjunto.

    Esta sería (como diría ChatGPT) una solución encomiable y meticulosamente compleja.

    Proporcionado por The Conversation

    Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com