Crédito:CC0 Public Domain
Generador de texto de OpenAI, impulsada por el aprendizaje automático, tan poderosa que se pensó que era demasiado peligrosa para lanzarla al público, tiene, adivina qué, sido liberado.
OpenAI publicó una publicación en el blog anunciando su decisión de lanzar el algoritmo en su totalidad, ya que "no ha visto pruebas sólidas de uso indebido hasta ahora".
Bien, eso fue un cambio radical.
Fue solo en febrero cuando OpenAI habló sobre un modelo de lenguaje llamado GPT-2 que genera párrafos de texto.
Engadget :"La IA, GPT-2, fue diseñado originalmente para responder preguntas, resumir historias y traducir textos. Pero los investigadores llegaron a temer que pudiera usarse para generar grandes volúmenes de información errónea ".
Tom McKay en Gizmodo señaló cómo el generador de texto fue "entrenado en unos 40 gigabytes de datos extraídos de ocho millones de sitios web" y fue bueno para generar texto a partir de una solicitud determinada.
El borde James Vincent también habló de ello. "El sistema se entrenó en ocho millones de documentos de texto extraídos de la web y responde a fragmentos de texto proporcionados por los usuarios. Aliméntelo con un título falso, por ejemplo, y escribirá una noticia; dale la primera línea de un poema y te proporcionará un verso completo ".
Entonces, ¿por qué se ha lanzado su algoritmo en su totalidad? ¿No tiene el público suficiente para preocuparse por las noticias falsas? crítica falsa, propaganda política?
Además, la publicación del blog de febrero tomó lo que parecía ser un camino tan impresionante para mostrar al mundo que las consideraciones éticas eran lo más importante.
"Nuestro modelo, llamado GPT-2 (sucesor de GPT), fue entrenado simplemente para predecir la siguiente palabra en 40 GB de texto de Internet. Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo entrenado. Como experimento de divulgación responsable, en cambio, estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten, así como un documento técnico ".
Katyanna Quach en El registro proporcionó una línea de tiempo de las apariciones tecnológicas de OpenAI en etapas. "El laboratorio de investigación con sede en San Francisco probó tentativamente las aguas al lanzar modelos cada vez más grandes, a partir de unos pocos cientos de millones de parámetros.
"La versión más pequeña contenía 117 millones de parámetros, el segundo tenía 345 millones de parámetros, el tercero constaba de 774 millones de parámetros, y el más grande, lanzado el martes, tiene los 1.5 mil millones de parámetros completos. Cuantos más parámetros, cuanto más potente y capaz sea el modelo, generalmente hablando."
Entonces, ¿Qué los convenció de tomar la rampa de salida de la carretera principal? ¿Qué razón tenían para pensar que ahora era un momento más seguro que nunca? ¿Qué pasó con la posición que era demasiado peligrosa para compartir?
"Hasta ahora no hemos visto pruebas sólidas de uso indebido, ", afirmaron en su publicación del 5 de noviembre." Si bien hemos visto algunas discusiones sobre el potencial de GPT-2 para argumentar operaciones de alto volumen / bajo rendimiento como spam y phishing, no hemos visto evidencia de escritura de código, documentación, o casos de mal uso ".
Mientras tanto, James Vincent en El borde se aventuró a ventilar la posibilidad de que esta noción "peligrosa" fuera solo eso, una noción que, en cuanto a su modelo de noticias falsas, puede que no haya sido solicitado en primer lugar.
Existía la preocupación de que el fácil acceso a una herramienta de inteligencia artificial de este tipo pudiera satisfacer los planes de los actores malintencionados, y la forma responsable de manejar esto fue lanzar el modelo de manera limitada. ¿Un buen enfoque? ¿O estaba frustrando nuevas investigaciones? "
Ahora puede probarlo en un sitio, que ejecuta el modelo GPT-2 de tamaño completo, llamado 1558M. La interfaz web fue construida por Adam King utilizando la versión completa de GPT-2 de OpenAI, dijo El registro .
Este escritor trató de explorar lo que puede hacer con una oración inicial "Los bebés pueden lavar los platos". Lo que siguió fue una alocada mezcla de lógica y saltos de tema. No obstante, las oraciones tenían una gramática respetable, voz y estilo. Algunos fragmentos:
"Y entonces, esta idea de que los niños son incapaces de usar una lavadora es ridícula.
"En cuanto a la idea de que su hijo sea un grifo de lavabo, esa es una idea que personalmente no creo que pueda soportar. Se sabe que uso el grifo del fregadero cuando cocino. Puedo lavar platos en un fregadero.
"Cuando su hijo está sentado en su regazo y usted sostiene la toallita y usa el agua para lavar los platos, probablemente no estás haciendo nada ".
James Vincent dio en el clavo con una evaluación de tres palabras:"escritura inquietantemente convincente".
Quach también hizo un punto que vale la pena repetir. "De vez en cuando, escupe frases que son sorprendentemente buenas, pero a medida que sigue produciendo texto, se vuelve incoherente ".
Quach tenía una razón refrescante por la que OpenAI ha contribuido a la humanidad. "Tenemos un pensamiento final sobre esta fascinante investigación de IA:al menos ha establecido un estándar para los escritores humanos. Si desea escribir noticias o artículos de fondo, publicaciones de blog, correos electrónicos de marketing, y similares, sepa que ahora tiene que ser mejor que la salida semi-coherente de GPT-2. De lo contrario, la gente también podría leer el resultado de un bot que el tuyo ".
© 2019 Science X Network