Crédito:Shutterstock
Pensaría que volar en un avión sería más peligroso que conducir un automóvil. En realidad, es mucho más seguro en parte porque la industria de la aviación está fuertemente regulada.
Las aerolíneas deben ceñirse a estrictos estándares de seguridad, pruebas, capacitación, Policias y procedimientos, auditoría y supervisión. Y cuando las cosas van mal investigamos e intentamos corregir el problema para mejorar la seguridad en el futuro.
No son solo las aerolíneas, cualquiera. Otras industrias donde las cosas pueden salir muy mal, como productos farmacéuticos y dispositivos médicos, también están muy reguladas.
La inteligencia artificial es una industria relativamente nueva, pero está creciendo rápidamente y tiene una gran capacidad de causar daño. Como la aviación y los productos farmacéuticos, necesita ser regulado.
La IA puede hacer un gran daño
Una amplia gama de tecnologías y aplicaciones que encajan bajo la rúbrica de "inteligencia artificial" han comenzado a desempeñar un papel importante en nuestras vidas e instituciones sociales. Pero pueden usarse de formas que son dañinas, que ya estamos empezando a ver.
En el asunto "robodebt", por ejemplo, Centrelink, la agencia de asistencia social del gobierno australiano, utilizó la comparación de datos y la toma de decisiones automatizada para emitir avisos de deuda (a menudo incorrectos) a los beneficiarios de la asistencia social. Y lo que es más, se invirtió la carga de la prueba:se exigió a las personas que demostraran que no tenían la deuda reclamada.
El gobierno de Nueva Gales del Sur también ha comenzado a usar IA para detectar conductores con teléfonos móviles. Esto implica una vigilancia pública ampliada a través de cámaras de detección de teléfonos móviles que utilizan inteligencia artificial para detectar automáticamente un objeto rectangular en las manos del conductor y clasificarlo como un teléfono.
El reconocimiento facial es otra aplicación de inteligencia artificial que se encuentra bajo un intenso escrutinio en todo el mundo. Esto se debe a su potencial para socavar los derechos humanos:puede utilizarse para una vigilancia generalizada y la represión de protestas públicas, y el sesgo programado puede dar lugar a inexactitudes y discriminación racial. Algunos incluso han pedido una moratoria o una prohibición total porque es muy peligroso.
En varios países, incluida Australia, La IA se utiliza para predecir la probabilidad de que una persona cometa un delito. Se ha demostrado que tales métodos predictivos impactan de manera desproporcionada a los jóvenes indígenas y conducen a prácticas policiales opresivas.
La IA que ayuda a los conductores de trenes también se está utilizando, y en el futuro podemos esperar ver coches autónomos y otros vehículos autónomos en nuestras carreteras. Las vidas dependerán de este software.
El enfoque europeo
Una vez que hayamos decidido que la IA necesita ser regulada, todavía queda la cuestión de cómo hacerlo. Las autoridades de la Unión Europea han hecho recientemente una serie de propuestas sobre cómo regular la IA.
El primer paso, ellos discuten, es evaluar los riesgos que plantea la IA en diferentes sectores, como el transporte, cuidado de la salud, y aplicaciones gubernamentales como la migración, justicia penal y seguridad social. También analizan las aplicaciones de inteligencia artificial que presentan un riesgo de muerte o lesiones. o tener un impacto en los derechos humanos, como el derecho a la privacidad, igualdad, libertad y seguridad, libertad de movimiento y reunión, seguridad social y nivel de vida, y la presunción de inocencia.
Cuanto mayor era el riesgo que se consideraba que planteaba una aplicación de IA, cuanta más regulación enfrentaría. Las regulaciones cubrirían todo, desde los datos utilizados para entrenar a la IA y cómo se mantienen los registros, a qué tan transparentes deben ser los creadores y operadores del sistema, pruebas de robustez y precisión, y requisitos para la supervisión humana. Esto incluiría la certificación y garantías de que el uso de sistemas de IA es seguro, y no da lugar a resultados discriminatorios o peligrosos.
Si bien el enfoque de la UE tiene puntos fuertes, incluso las aplicaciones de IA aparentemente de "bajo riesgo" pueden causar un daño real. Por ejemplo, Los algoritmos de recomendación en los motores de búsqueda también son discriminatorios. The EU proposal has also been criticized for seeking to regulate facial recognition technology rather than banning it outright.
The EU has led the world on data protection regulation. If the same happens with AI, these proposals are likely to serve as a model for other countries and apply to anyone doing business with the EU or even EU citizens.
What's happening in Australia?
In Australia there are some applicable laws and regulations, but there are numerous gaps, and they are not always enforced. The situation is made more difficult by the lack of human rights protections at the federal level.
One prominent attempt at drawing up some rules for AI came last year from Data61, the data and digital arm of CSIRO. They developed an AI ethics framework built around eight ethical principles for AI.
These ethical principles aren't entirely irrelevant (number two is "do no harm, " for example), but they are unenforceable and therefore largely meaningless. Ethics frameworks like this one for AI have been criticized as "ethics washing", and a ploy for industry to avoid hard law and regulation.
Another attempt is the Human Rights and Technology project of the Australian Human Rights Commission. It aims to protect and promote human rights in the face of new technology.
We are likely to see some changes following the Australian Competition and Consumer Commission's recent inquiry into digital platforms. And a long overdue review of the Privacy Act 1988 (Cth) is slated for later this year.
These initiatives will hopefully strengthen Australian protections in the digital age, but there is still much work to be done. Stronger human rights protections would be an important step in this direction, to provide a foundation for regulation.
Before AI is adopted even more widely, we need to understand its impacts and put protections in place. To realize the potential benefits of AI, we must ensure that it is governed appropriately. De lo contrario, we risk paying a heavy price as individuals and as a society.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.