• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo las grandes tecnologías diseñan sus propias reglas de ética para evitar el escrutinio y la rendición de cuentas

    La ética de los datos es ahora una causa célebre.

    La "ética digital y la privacidad" se incluyó en las diez principales tendencias tecnológicas estratégicas de la compañía de investigación y asesoramiento Gartner para 2019. Antes de eso, apenas se mencionó.

    En el último año, los gobiernos, las corporaciones y los think tanks de políticas y tecnología han publicado guías de ética de datos. Una cohorte completa de expertos en ética de datos se ha materializado mágicamente.

    ¿Por qué este repentino interés en la ética de los datos? ¿Qué es la ética de los datos? ¿De quién son los intereses para los que están diseñadas las directrices?

    Para entender lo que está pasando es necesario dar un paso atrás y observar cómo se ha desarrollado el panorama de la información.

    La imagen que surge es la de una industria inmune a las restricciones regulatorias que se aplican a todos los demás.

    El brillo se ha ido

    En los últimos años, la industria de la información ha perdido su brillo.

    Las revelaciones de Snowden, el escándalo de Cambridge Analytica, la habilitación de las redes sociales para el discurso de odio, el armamentismo de la información y su papel en el socavamiento de las instituciones democráticas han contribuido.

    El modelo de negocio que monetiza la información personal para vender publicidad ahora se ve como una ganga faustiana; tal vez el sacrificio no valga la pena. después de todo. De 2017 a 2018 hubo una caída del 6% en los usuarios de Facebook en los Estados Unidos en el lucrativo mercado de 12 a 34 años.

    Estas preocupaciones han llevado a pedidos de regulación. Pero estos han luchado por ganar terreno frente a la ortodoxia regulatoria imperante en el sector de la tecnología. Esto se remonta a los cinco principios de Al Gore para habilitar lo que entonces se llamaba curiosamente la "superautopista global de la información".

    El principio tres era que la política regulatoria "crearía un marco regulatorio flexible que pueda seguir el ritmo de los rápidos cambios tecnológicos y del mercado". Este era un código sin regulación, o autorregulación. En Australia se conocía como regulación de "toque ligero".

    La gran tecnología actuó con impunidad regulatoria, liberado en gran medida de las preocupaciones mundanas de la "vieja" economía, como la protección del consumidor o la responsabilidad del producto o la ley de competencia o, en particular, privacidad de la información.

    Dando vueltas más cerca

    Europa nunca adoptó por completo este enfoque de laissez-faire. La privacidad de la información siempre ha ocupado un lugar destacado en su agenda, culminando en el Reglamento General de Protección de Datos de 2018 (GDPR). Esto proporciona a las personas de la Unión Europea los derechos de protección de datos más completos del mundo. Los derechos tienen alcance extraterritorial, involucrar supervisión regulatoria, y emplear multas civiles de magnitud deslumbrante. Otras jurisdicciones están comenzando a hacer lo mismo.

    En paralelo, los reguladores de otras disciplinas están comenzando a circular. Los reguladores antimonopolio están mirando de nuevo los monopolios de la información y el uso del poder de mercado de las grandes tecnologías para restringir la competencia.

    En Australia, la ACCC ha pedido una nueva autoridad reguladora para monitorear e investigar el efecto de los algoritmos en la clasificación de noticias y contenido periodístico.

    El informe del Comité Selecto de Comunicaciones del Reino Unido sobre la regulación en un mundo digital ha recomendado una nueva autoridad digital para supervisar la regulación "fragmentada" del entorno digital en torno a diez principios regulatorios, señalando que "es evidente que la regulación por parte de las plataformas en línea está fallando". Los reguladores de derechos humanos están examinando el papel de los algoritmos en la creación y consolidación de la discriminación.

    Los datos significan dinero

    La gran tecnología no quiere ser regulada. No quiere que se restrinja su capacidad ilimitada de recopilar información personal o que las protecciones de tipo GDPR se conviertan en la norma global. La información personal es la materia prima de los algoritmos que le permiten monetizar nuestra atención.

    Para una industria que se enorgullece de ser "disruptiva, "La mayor ansiedad de las grandes tecnologías es evitar el endurecimiento del entorno regulatorio para evitar ser interrumpido. La ética de los datos es uno de los medios que ha desarrollado para luchar contra la regulación. Lo hace apropiándose de las virtudes asociadas con la ética, pero vaciándolas de contenido o consecuencia .

    Tome los principios de Google para la IA. (AI es inteligencia artificial). Estos son:

    • ser socialmente beneficioso
    • evitar crear o reforzar prejuicios injustos
    • ser construido y probado para su seguridad
    • ser responsable ante la gente
    • incorporar principios de diseño de privacidad
    • mantener altos estándares de excelencia científica
    • estar disponible para usos que estén de acuerdo con estos principios.

    Estos "principios" son sorprendentemente similares a las homilías para sentirse bien publicadas en Instagram que nos instan a "ser buenos los unos con los otros" o no "dejar que el sol se ponga sobre nuestra ira," "y son igualmente útiles.

    Poner a prueba

    Probemos uno de los principios de Google, "ser responsable ante la gente".

    Aquí hay varios niveles de ambigüedad. ¿Significa que los algoritmos de inteligencia artificial de Google deben rendir cuentas a las "personas" en general, La "gente de Google, "o la" gente "de otra persona, como un regulador independiente?

    Si el último, Google proporcionará el algoritmo para el análisis, corregir cualquier error, y pagar una indemnización por cualquier daño causado?

    Si los algoritmos de inteligencia artificial de Google concluyen erróneamente que soy un terrorista y luego pasan esta información a las agencias de seguridad nacional que utilizan la información para arrestarme, mantenme incomunicado e interrogame, ¿Google será responsable de su negligencia o de contribuir a mi encarcelamiento falso? ¿Cómo será responsable? Si no estoy satisfecho con la versión de responsabilidad de Google, ¿A quién apelo por justicia?

    La ética útil implica responsabilidad

    La ética se ocupa de los principios morales que afectan la forma en que las personas toman decisiones y cómo llevan sus vidas.

    La ética se ha estudiado y debatido durante eones. Dentro de las tradiciones occidentales, la ética se remonta a Sócrates. Incluyen posiciones filosóficas como la ética deontológica (basada en el deber), consecuencialismo, utilitarismo y existencialismo, para nombrar sólo unos pocos. Como era de esperar, ninguno de ellos produce las mismas respuestas a preguntas sobre lo que debe hacer un individuo en circunstancias particulares.

    La "ética aplicada" tiene como objetivo aplicar los principios de la ética en situaciones de la vida real. Existen numerosos ejemplos.

    La ética del sector público se rige por la ley. Hay consecuencias para quienes las infringen, incluyendo medidas disciplinarias, terminación del empleo y, a veces, sanciones penales. Convertirse en abogado Tuve que presentar pruebas ante un tribunal de que soy una "persona apta y adecuada". Para seguir practicando, Debo cumplir con los requisitos detallados establecidos en las Reglas de conducta de los abogados de Australia. Si los rompo, hay consecuencias.

    Las características de la ética aplicada son que son específicas, hay bucles de retroalimentación, hay orientación disponible, están integrados en la cultura organizacional y profesional, hay una supervisión adecuada, hay consecuencias cuando se infringen y existen mecanismos de ejecución independientes y recursos reales. Son parte de un aparato regulador y no solo declaraciones de "sentirse bien".

    Sentirse bien, Los principios de ética de datos de alto nivel no son adecuados para regular la gran tecnología. La ética aplicada puede tener un papel que desempeñar, pero debido a que son específicas de una ocupación o disciplina, no se puede confiar en que hagan todo, o incluso la mayoría de el trabajo pesado.

    Los daños relacionados con la gran tecnología solo pueden abordarse mediante una regulación adecuada.

    Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com