Arriba (izquierda-derecha):Profesor de SMU David Llewelyn, Vicedecano de la Facultad de Derecho de SMU; El profesor asociado de SMU Warren Chik; Profesor Ian Walden, Centro de Estudios de Derecho Comercial, Universidad Queen Mary de Londres; El profesor asociado de SMU, Alvin See (quien presentó el trabajo del profesor asociado de SMU Yip Man en su nombre); Sr. KK Lim, Jefe de Ciberseguridad, Privacidad y Protección de Datos, Eversheds Harry Elias; y el Sr. Lanx Goh, Asesor jurídico sénior (privacidad y ciberseguridad) y responsable global de protección de datos, Tecnología de viajes Klook. Crédito:Kareyst Lin
¿Te imaginas un mundo sin listas de reproducción personalizadas de Spotify, feeds de redes sociales seleccionados, o videos de gatos recomendados en las barras laterales de YouTube? Estas comodidades de hoy en día, que fueron posibles gracias a la inteligencia artificial (IA), también presentan una propuesta aterradora:que las máquinas podrían terminar sabiendo más sobre nosotros que nosotros mismos.
Según la encuesta de la Agenda CIO 2019 de Gartner, El 37 por ciento de los directores de información (CIO) a nivel mundial ya han implementado tecnología de inteligencia artificial en sus organizaciones. La rápida adopción de soluciones de inteligencia artificial pone de relieve la forma en que los datos, que podrían consistir en información sensible, información confidencial y personal:están siendo administradas y utilizadas por organizaciones.
Hablando en el panel de la conferencia sobre 'IA y protección de datos:nuevos enfoques regulatorios', El profesor asociado de la Singapore Management University (SMU), Warren Chik, ofreció su perspectiva sobre cómo conceptualizar la confianza en la era digital. "Cuando se trata de asuntos como los datos personales, no tratamos a la IA como a Dios. Por lo tanto, no podemos confiar en la fe, que es lo que requiere la religión. Necesitamos algo más sustancial que eso, " él dijo.
En su charla titulada 'Inteligencia artificial y protección de datos en Singapur:Confianza de los consumidores, Seguridad organizacional y regulación gubernamental ', El profesor Chik explicó que para generar confianza en una solución digital, es fundamental que los usuarios se involucren en los temas involucrados. "La gente tiende a temer lo desconocido, y es difícil tener confianza en algo que no conoces ".
Moderado por el profesor David Llewelyn, Vicedecano de la Facultad de Derecho de SMU, la mesa redonda contó con oradores, el profesor Ian Walden, Centro de Estudios de Derecho Comercial, Universidad Queen Mary de Londres; El profesor asociado Yip Man (cuyo documento fue presentado por el profesor asociado Alvin See en su nombre); así como los comentaristas Sr. KK Lim, Jefe de Ciberseguridad, Privacidad y Protección de Datos, Eversheds Harry Elias; y el Sr. Lanx Goh, Asesor jurídico sénior (privacidad y ciberseguridad) y responsable global de protección de datos, Tecnología de viajes Klook.
La IA como influencer
La capacidad de un sistema de inteligencia artificial para realizar perfiles personales podría cambiar fundamentalmente la personalidad digital de un usuario, dijo el profesor Chik, destacando un motivo de preocupación para muchos.
"Si bien una IA contiene información específica como su nombre y dirección, también forma su propio conocimiento de su identidad, y quien eres como persona, "El profesor Chik dijo, citando algoritmos utilizados por las redes sociales para recopilar datos sobre la identidad de uno, intereses y hábitos de navegación. A partir de esos datos, luego, el sistema crea un perfil de quién creen que eres.
"Estos algoritmos, que pueden ser correctos o incorrectos, le brindan información, artículos y enlaces, y como resultado produce un efecto en su pensamiento. En otras palabras, La IA puede moldear el comportamiento humano, y este es un riesgo que incomoda a mucha gente, "Dijo el profesor Chik. La amenaza es muy real, enfatizó, señalando que los reguladores han identificado claramente la necesidad de regular el uso de datos en IA.
En Singapur, por ejemplo, la Ley de protección contra la falsedad y la manipulación en línea (POFMA) incluye disposiciones penales sobre la creación, uso y alteración de bots para difundir información falsa.
Legislación de protección de datos:un acto de equilibrio
Al intentar regular los datos, siempre hay dos objetivos en competencia al regular el uso, recopilación y procesamiento de datos personales. "El primer objetivo es proteger al interesado, y el segundo es promover la innovación, "dijo el profesor See, quien presentó el trabajo del profesor Yip en su nombre.
De los diferentes tipos de protección para los interesados que existen en la actualidad, la opción más comúnmente disponible es el uso de contratos. El artículo del profesor Yip señala que "[e] l problema de tratar de regular el uso de datos a través de términos y condiciones es que, en la mayoría de los casos, la gente no lee [la letra pequeña legal] ". Por lo tanto, el consentimiento otorgado no es genuino.
Profesor Llewelyn, quien moderó la mesa redonda, agregó que el significado de consentimiento es un tema que necesita ser explorado con mayor profundidad. "Si un consumidor aceptara un contrato en línea en su totalidad sin leerlo, ¿Se puede decir de manera realista que ha aceptado todos los términos y condiciones? "¿Y dado pleno consentimiento?", preguntó. "Quizás debería darse un reconocimiento legal a la naturaleza automática del compromiso asumido en tales contratos".
Una limitación más crítica del contrato como protección para el interesado, es que el contrato solo rige la información que se comparte entre las dos partes obligadas por el contrato. Por ejemplo, si Facebook transfiriera los datos personales de un usuario a un tercero no vinculado por el contrato, la empresa de terceros no estará obligada a proteger la información del usuario.
Protección de datos por diseño
Ley de protección de datos personales de Singapur (PDPA), que regula los datos personales mediante el uso de la legislación, se describe como un régimen de toque ligero que adopta un enfoque fuertemente equilibrado entre la necesidad de protección de la privacidad y el interés de la innovación empresarial.
El artículo del profesor Yip reconoce que existe cierto nivel de tensión entre los dos objetivos mencionados anteriormente. El problema que nos ocupa, por lo tanto, es cómo lograr un equilibrio entre los derechos individuales y la privacidad, y los intereses contrapuestos del crecimiento económico y la innovación, ella anotó.
Al final del día, el foco está en prevenir, en lugar de intentar remediar una violación de la privacidad de los datos. "Se trata de reconocer los derechos del individuo y la privacidad de sus datos, y al mismo tiempo, la necesidad de que las organizaciones recopilen, utilizar y divulgar datos personales para fines legítimos y razonables, "Añadió el artículo del profesor Yip.
Otra solución que la profesora Yip exploró en su artículo fue el uso de tecnología en lugar de la ley para proteger a los interesados. En algunos casos, la privacidad se puede integrar directamente en el diseño y el funcionamiento de los sistemas operativos, procesos de trabajo, infraestructura de red e incluso espacios físicos. No obstante, destaca que esta solución no es perfecta porque va en contra de los intereses de las empresas que aprovechan los datos para obtener ganancias para construir sólidas salvaguardas de privacidad en sus sistemas y modelos comerciales.