Crédito:CC0 Public Domain
Si desea comprender cómo las personas piensan (y sienten) acerca de las nuevas tecnologías, Es importante comprender cómo piensan (y escriben) los medios de comunicación sobre las nuevas tecnologías.
Un análisis reciente de cómo los periodistas han abordado la ética de la inteligencia artificial (IA) sugiere que los periodistas están haciendo un buen trabajo al lidiar con un conjunto complejo de preguntas, pero hay margen de mejora.
Para conocer más sobre el trabajo, por qué lo hicieron, y por qué es importante hablamos con los investigadores que hicieron el trabajo:Veljko Dubljević, autor correspondiente del artículo y profesor asistente de filosofía en NC State; Leila Ouchchy, primer autor del artículo y ex pregrado en NC State; y Allen Coin, coautor del artículo y estudiante de posgrado en NC State.
El papel, "La IA en los titulares:la descripción de las cuestiones éticas de la inteligencia artificial en los medios, "fue publicado en la revista IA y sociedad el 29 de marzo.
Resumen:este artículo se centra en en parte, sobre cuestiones éticas relacionadas con las tecnologías de IA que las personas utilizarían en su vida diaria. ¿Podría darme uno o dos ejemplos?
Allen Coin:Probablemente la aplicación más conocida de IA con implicaciones éticas muy reales serían los autos sin conductor. Si un coche autónomo se encuentra en una situación en la que tiene, por ejemplo, perdió el control de sus frenos y debe chocar contra un niño o un adulto, que debe hacer Si está 'conduciendo' un automóvil autónomo y pierde el conocimiento, y el coche se sale de control y tiene la opción de chocar contra un peatón, salvando así tu vida, o conduciendo por un acantilado, sacrificando así tu vida, que debe hacer ¿Qué le gustaría que hiciera su automóvil en esa situación?
Estos son "problemas de tranvía" del mundo real sobre los que incluso los seres humanos tendrían dificultades para tomar decisiones morales y éticas en el calor del momento.
Otro ejemplo un poco más insidioso sería cómo los sesgos y prejuicios humanos aparentemente tienen una tendencia a surgir en las aplicaciones de inteligencia artificial que desarrollan los humanos. Algoritmos de aprendizaje automático, por ejemplo, están tocando cada vez más áreas de la vida humana. Pero estos algoritmos deben "entrenarse" en conjuntos de datos del mundo real. Si los conjuntos de datos representan un comportamiento humano prejuicioso, incluso si no es evidente de inmediato o si intenta ocultarlo, eso puede significar que el software resultante no es capaz de actuar objetivamente.
Un ejemplo sería el software de recursos humanos para grandes corporaciones que evalúa a los solicitantes de empleo en función de rasgos similares a los de los solicitantes previamente seleccionados. lo que significa que si había un sesgo de género o raza cuando los humanos tomaban las decisiones de contratación, entonces el "robot" puede continuar comportándose con esos sesgos al seleccionar candidatos.
TA:Para esta investigación, usted miró específicamente cómo los medios de comunicación cubrieron estas consideraciones éticas. ¿Por qué?
Leila Ouchchy:Analizamos específicamente los medios de comunicación por el efecto que las noticias pueden tener en la opinión pública con respecto a las nuevas tecnologías. La cobertura mediática de la ética de la IA tiene el potencial de afectar cómo se implementa la IA en nuestra sociedad, desde los tipos de IA que producen las empresas hasta la forma en que la IA está regulada por el gobierno.
TA:¿Por qué no analizar también las formas en que se trata la ética de la IA en la cultura popular? como la televisión o el cine? ¿No informan y reflejan también las preocupaciones del público?
Veljko Dubljević:La representación pública de las cuestiones éticas en la IA en la ficción ya ha recibido más atención en la comunidad académica, y eso es bueno y malo.
Lo bueno es que tenemos algunos análisis por ahí, que puede ser útil.
El lado malo sin embargo, es que esto no se basa firmemente en hechos científicos y tecnologías ya disponibles, lo que hace que esto sea más propenso a las exageraciones utópicas y distópicas.
TA:¿Qué encontró su análisis de los medios de comunicación? ¿Y qué significa eso?
Ouchchy:Hubo un fuerte aumento en el número de artículos publicados en los últimos años, lo que muestra que la cantidad de contenido de medios que se publica sobre la ética de la IA ha aumentado continuamente, y probablemente seguirá aumentando a medida que se convierta en un problema más frecuente. Adicionalmente, hubo poca discusión sobre los marcos éticos y los principios basados en ellos, lo que sugiere una falta de participación o influencia de los éticos en la discusión de los medios. Finalmente, descubrimos que los artículos tenían principalmente tonos neutros, y centrado en cuestiones prácticas y relevantes, aunque sus recomendaciones no fueron muy específicas. Esto muestra que la discusión de los medios sobre la ética de la IA es relativamente sofisticada, pero aún en sus primeras etapas.
TA:¿Qué podrían o deberían estar haciendo los reporteros de manera diferente en su cobertura de la ética y las tecnologías de IA?
Dubljević:Los periodistas pueden beneficiarse de comunicarse con expertos en tecnología de inteligencia artificial y especialistas en ética para aclarar los hechos y valores relevantes. La discusión puede ser relativamente sofisticada, pero ciertamente hay margen de mejora.
Moneda:Para agregar a este punto, Una cosa que me llamó la atención sobre los hallazgos de esta investigación es que uno de los "marcos éticos" más comúnmente citados en los artículos sobre la ética de la IA es "Tres leyes de la robótica" de Isaac Asimov. Ahora, Ciertamente soy un fanático de la ciencia ficción de Asimov, pero sus "Tres leyes" no son un marco ético formal. Tampoco es muy útil en el contexto de las discusiones del mundo real sobre cómo la IA puede y debe comportarse de manera ética.
El utilitarismo también se discutió comúnmente en artículos de noticias sobre la ética de la IA, así que creo que existe la oportunidad de modernizar la forma en que hablamos de la ética de la IA. Específicamente, podríamos —o deberíamos— utilizar marcos éticos más modernos que sean capaces de abordar las complejidades y complejidades de las aplicaciones del mundo real de los agentes morales artificiales. También estoy de acuerdo con Veljko en que los periodistas deberían comunicarse con los investigadores y especialistas en ética de la IA con más frecuencia; creo que hay muchos expertos que estarían encantados de hablar con cualquier periodista que desee obtener una perspectiva ética detallada sobre cualquier noticia relacionada con la IA. .