Crédito:CC0 Public Domain
En la era digital actual, La inteligencia artificial y los macrodatos están ayudando a las personas a navegar por el mundo de nuevas formas. Si bien muchos investigadores están utilizando estas nuevas herramientas para innovar y promover diferentes disciplinas, unos pocos, como Fred Fonseca, están abordando estos avances desde una perspectiva diferente.
"Hay un nuevo campo llamado ética de datos, "dijo Fonseca, profesor asociado en la Facultad de Ciencias de la Información y Tecnología de Penn State y miembro de la facultad 2019-2020 en el Rock Ethics Institute de Penn State. "Estamos recopilando datos y usándolos de muchas formas diferentes. Necesitamos comenzar a pensar más sobre cómo los estamos usando y qué estamos haciendo con ellos".
Al abordar la tecnología emergente con una perspectiva filosófica, Fonseca puede explorar los dilemas éticos que rodean cómo nos reunimos, gestionar y utilizar la información. Explicó que con el auge de los macrodatos, por ejemplo, muchos científicos y analistas están renunciando a formular hipótesis a favor de permitir que los datos hagan inferencias sobre problemas particulares.
"Normalmente, en la ciencia, la teoría impulsa las observaciones. Nuestra comprensión teórica guía tanto lo que elegimos observar como cómo elegimos observarlo, Fonseca explicó. Ahora, con tantos datos disponibles, la imagen clásica de la ciencia de la construcción de teorías está bajo amenaza de ser invertida, con datos que se sugieren como la fuente de teorías en lo que se llama ciencia impulsada por datos ".
Fonseca compartió estos pensamientos en su artículo, "Sistemas de pensamiento y comprensión ciberhumanos, "que se publicó en la edición de abril de 2019 de la Revista de la Asociación de Ciencias y Tecnología de la Información . Fonseca fue coautor del artículo con Michael Marcinowski, Facultad de Artes Liberales, Universidad de Bath Spa, Reino Unido; y Clodoveu Davis, Departamento de Ciencias de la Computación, Universidade Federal de Minas Gerais, Belo Horizonte, Brasil.
En el papel, los investigadores proponen un concepto para salvar la brecha entre el pensamiento teórico y el a-teórico, ciencia basada en datos.
"En lugar de abordar un conjunto específico de macrodatos para responder una pregunta ya desarrollada, Se anima a los científicos a interactuar con los datos de una manera más reflexiva e inmediata, utilizar los datos en sí como un instrumento para la investigación científica, ", explicaron los investigadores." El beneficio inmediato sería ayudar a los científicos a gestionar y responder a la avalancha de datos que de otro modo abrumarían sus poderes de agente y de toma de decisiones ".
Fonseca usó la metáfora de comparar datos o inteligencia artificial con un bastón que una persona ciega podría usar para navegar por el mundo.
"Los científicos utilizan los datos realmente existentes para sentirse bien e interactuar con el mundo realmente existente, la participación de datos no como una representación, sino como un instrumento para ayudar a facilitar su pensamiento empírico, ", explicó." Como el bastón, los datos se utilizan como una extensión de sus sentidos, con su comprensión del mundo acoplada dinámicamente con los flujos masivos de datos que se encuentran en la ciencia basada en datos ".
Propone una remodelación práctica de cómo los analistas, los profesionales y los científicos piensan en su trabajo. Con muchos avances en inteligencia artificial, y máquinas que toman decisiones y acciones más parecidas a las humanas, Fonseca dijo que es importante reflexionar sobre el impacto que tiene la tecnología en la vida cotidiana.
"La tecnología no va a desaparecer, ", dijo." Necesitamos pensar más en ello y entenderlo mejor para que podamos tomar decisiones informadas ".
Para ilustrar los desafíos éticos que pueden traer las nuevas tecnologías, Citó un artículo reciente del Washington Post sobre proveedores médicos y empresas de tecnología que utilizan inteligencia artificial para predecir las tasas de depresión y la probabilidad de suicidio de las personas. La tecnología escanea registros médicos y publicaciones en redes sociales en busca de lenguaje y comportamientos suicidas. Algunos de los datos se proporcionan a médicos u otras personas que pueden intervenir. Pero, ¿esos mismos datos podrían caer en manos de los especialistas en marketing u otros terceros?
"Aunque es posible [crear estos algoritmos], tal vez no deberíamos hacerlo. Porque una vez que está ahí, la gente lo va a usar y lo va a usar mal, ", dijo." Estas son las preguntas acerca de la ciencia en las que debemos empezar a pensar.
"Se trata de valores, ", agregó." Podemos tener todo tipo de datos, pero necesitamos saber cómo lo estamos usando ".