• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Defensor de la integridad algorítmica:las implicaciones de la interacción humana con la tecnología

    Crédito:Universidad Tecnológica de Michigan

    Lo usamos Míralo, trabajar con él, y puede sufrir ansiedad por separación cuando no está disponible. ¿Cuáles son las implicaciones de la interacción humana con la tecnología? particularmente cuando se usa para predecirnos o vigilarnos?

    Como parte de su primer programa, Cultura algorítmica, el Instituto de Políticas, Ética, y Cultura en la Universidad Tecnológica de Michigan llevaron a la defensora de la justicia social y líder de pensamiento Marika Pfefferkorn al campus para hablar sobre su trabajo. En esta sesión de preguntas y respuestas, Pfefferkorn comparte más sobre su activismo de base, cómo se está extendiendo por todo el país y las acciones que espera que tome nuestra comunidad a raíz de su visita.

    P:¿Qué haces y cómo te involucraste en este trabajo?

    A:El Minneapolis-St. Twin Cities Innovation Alliance (TCIA), con sede en Paul, es una coalición que representa a un organizaciones privadas y comunitarias, corporaciones e instituciones. TCIA se fundó para ser proactivo sobre el surgimiento de Smart Cities y para participar en soluciones empresariales que conduzcan a comunidades conectadas. Nos centramos en la importancia y el papel de los datos en los dominios de las ciudades inteligentes, incluida la educación, gobernancia, infraestructura y transporte.

    Los datos son como oxígeno para las ciudades inteligentes, y nos dimos cuenta desde el principio de que era y es imperativo compartir con los miembros de la comunidad la promesa y los peligros que existen debido al uso de sus datos. Ahora nuestro trabajo se está expandiendo a nivel nacional.

    P:¿Qué le hizo interesado en el sesgo inherente en los algoritmos predictivos?

    R:En 2018, 43 distritos escolares de Minnesota fueron identificados por el Departamento de Derechos Humanos de Minnesota por discriminar a los negros, estudiantes marrones e indígenas en suspensiones subjetivas fuera de la escuela. Cuando el condado de Ramsey, las Escuelas Públicas de la Ciudad de St. Paul y St. Paul celebraron un Acuerdo de Poderes Conjuntos con intercambio integrado de datos, propusieron aplicar análisis predictivos y usar una evaluación de riesgo para asignar una puntuación de riesgo para señalar a los niños en riesgo de involucrarse en el futuro con el sistema de justicia juvenil. Cuando supe que propusieron utilizar las suspensiones extraescolares como indicador para su evaluación de riesgos, Estaba preocupado porque los datos que ingresarían eran incorrectos y tenían prejuicios raciales en contra de los estudiantes de color y los estudiantes que recibían servicios de educación especial. Reconocí que los tomadores de decisiones y los encargados de formular políticas no habían hecho su debida diligencia para proteger a nuestros estudiantes de los perfiles raciales o etiquetas estigmatizantes que los seguirían mucho más allá de su educación K-12.

    P:Descubrió que tanto las familias que podrían verse afectadas por un algoritmo problemático como los funcionarios que apoyaron el acuerdo de intercambio de datos como una forma más eficaz y eficiente de ayudar a sus comunidades tenían lagunas de conocimiento y / o se sentían intimidados al hablar de tecnología digital. ¿Cómo trabajó la coalición que organizó para llevar información a la gente?

    R:Una vez que reconocimos que nadie entendía realmente las implicaciones de un Acuerdo de Poderes Conjuntos tan expansivo, el algoritmo Coalition to Stop the Cradle to Prison invirtió tiempo en desglosar el documento pieza por pieza:si teníamos preguntas que hiciéramos, si teníamos inquietudes, las nombramos y si necesitábamos claridad, accedimos a nuestra red comunitaria y nos comunicamos con socios como la ACLU de Minnesota y Data for Black Lives. Como aprendimos, Creamos herramientas para que todos las utilicen como catalizador de conversaciones más constructivas. Un ejemplo de esto es el resumen de políticas que creamos y compartimos con nuestros funcionarios electos y partes interesadas para explicar nuestras preocupaciones y resaltar los aspectos problemáticos del acuerdo. Involucramos a los padres como embajadores y apoyamos sus esfuerzos para difundir el mensaje. Organizamos múltiples cumbres y foros comunitarios que posicionaron a otros miembros de la comunidad como expertos para hablar sobre lo que estaba sucediendo y sus preocupaciones. Organizamos una clínica de Dare to Data y un taller de mejora algorítmica para ayudar a interrumpir gran parte de la intimidación que sintieron los miembros de nuestra comunidad al navegar por el lenguaje legal o técnico con funcionarios electos y legisladores.

    P:Es posible que la gente se quede con la impresión de que está en contra de los datos. ¿Es ese el caso?

    R:Me río cuando la gente piensa que soy anti-datos porque gran parte de mi trabajo se basa en tener acceso a buenos datos para contar la historia completa. Para muchas personas en este trabajo, no hay problema, a menos que pueda probar que hay un problema con los datos. Gran parte de mi trabajo en disparidades disciplinarias requiere que defienda una mayor recopilación de datos sobre suspensiones, remisiones y expulsiones a la oficina; mi preocupación siempre será cómo protegemos los datos de los estudiantes del mal uso y el abuso; el por qué es realmente importante.

    P:A veces parece que muchos de nosotros simplemente pasamos de una computadora a otra, desde nuestros relojes y automóviles hasta nuestros asistentes domésticos. ¿Cómo crees que es una relación adecuada con la tecnología?

    R:Una relación adecuada con la tecnología comienza con comprender que la tecnología es una herramienta y recordar que nuestra humanidad es lo primero. La tecnología no es la solución milagrosa la tecnología no es la respuesta a todo, y la tecnología debe mantenerse en la perspectiva adecuada, no diferido como neutral, pregunta anterior. Más importante, el papel de la tecnología debe hacerse transparente.

    P:titulares recientes, incluidas las acusaciones de sesgo de género en las tarjetas de crédito y la recopilación de puntajes financieros "secretos" (páginas y páginas de datos, basado en todo, desde pedidos de comida para llevar hasta hábitos de ver televisión) revelan la poca privacidad que tenemos. ¿Es posible la privacidad en una era algorítmica?

    R:Estamos en un punto de inflexión en nuestra democracia donde la gente está dispuesta a regalar al bebé con el agua del baño sin comprender realmente el impacto a largo plazo de la privacidad en una era algorítmica. Las empresas de tecnología están apostando por esto. Creo que es el papel de los padres, educadores, distritos escolares, los estados y el gobierno federal para equipar mejor a las personas para que comprendan y naveguen en esta nueva era tecnológica, especialmente nuestros nativos digitales que no saben nada diferente. Una educación masiva debe ser una prioridad si queremos proteger las protecciones de privacidad que existen. No podemos dar por sentada nuestra privacidad.

    P:Se reunió con la facultad, estudiantes y personal a principios de este mes. ¿Cuáles son algunas de las interacciones más significativas que tuvo en el campus?

    R:Realmente disfruté de mi visita a Michigan Tech. Aprendí mucho sobre el Institute for Policy, Ética, y Cultura de los miembros del comité fundador con los que me reuní. Escuché que su visión del IPEC cobró vida cuando describieron el trabajo que esperan lograr. Espero tener la oportunidad de seguir trabajando con ellos mientras desarrollan este trabajo.

    Mi parte favorita de la visita fue interactuar con los estudiantes en una clase de Derecho y Sociedad, y reunión con profesores y estudiantes de informática. Aunque muchos de los estudiantes con los que interactué pueden tener una cosmovisión muy diferente, a través de nuestra narración y discusión, encontré puntos en común y un interés genuino en los temas de big data, analítica predictiva y algoritmos. También me fui con una nueva lista de lectura. Descubrí que a la mayoría de los estudiantes les importaba mucho hicieron excelentes preguntas y participaron en la conversación porque establecieron una conexión personal entre la teoría y la experiencia de la vida real.

    P:¿Qué es lo que trajo a nuestra comunidad que espera que se quede con nosotros?

    A:intercambio de datos integrado, la aplicación de análisis predictivo y el uso de algoritmos no es una práctica nueva, but community members must be aware and prepared to participate in discussions and decision-making processes about their use to ensure that outcomes are not separate from the communities they are intended to serve and to know that certain students are more negatively impacted from others. When we talk about data and systems, we must recognize the harm that communities have experienced in the misuse of data and systems, and the individuals that represent them must do everything in their power to repair that harm and begin to build trust before any next steps are taken.

    Q:What's next for your projects?

    A:The Twin Cities Innovation Alliance has launched the Data for Public Good Campaign to work side by side with communities to identify emerging technological trends in education across the country for the purpose of creating a heat map to follow the development, resources and policies at play. We will convene these community co-researchers to identify recommendations and guidelines from a community perspective as another tool for communities to use in protecting individual data and ensuring trust between systems and communities.


    © Ciencia https://es.scienceaq.com