• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Cómo la diversidad de sujetos de prueba es un punto ciego tecnológico y qué hacer al respecto

    Sin una gama diversa de sujetos de prueba, algunas tecnologías nuevas podrían no funcionar según lo previsto para muchas personas. Crédito:John Paul Van Wert/Rank Studios/Flickr, CC BY-SA

    Las personas interactúan con las máquinas de innumerables formas todos los días. En algunos casos, controlan activamente un dispositivo, como conducir un automóvil o usar una aplicación en un teléfono inteligente. A veces, las personas interactúan pasivamente con un dispositivo, como si fueran imágenes de una máquina de resonancia magnética. Y a veces interactúan con máquinas sin consentimiento o incluso sin saber acerca de la interacción, como ser escaneados por un sistema de reconocimiento facial de las fuerzas del orden.

    La interacción hombre-máquina (HMI) es un término general que describe las formas en que las personas interactúan con las máquinas. HMI es un aspecto clave de la investigación, el diseño y la construcción de nuevas tecnologías, y también estudia cómo las personas usan y se ven afectadas por las tecnologías.

    Los investigadores, especialmente aquellos con formación tradicional en ingeniería, adoptan cada vez más un enfoque centrado en el ser humano al desarrollar sistemas y dispositivos. Esto significa esforzarse por hacer tecnología que funcione como se espera para las personas que la usarán, teniendo en cuenta lo que se sabe sobre las personas y probando la tecnología con ellos. Pero incluso cuando los investigadores de ingeniería priorizan cada vez más estas consideraciones, algunos en el campo tienen un punto ciego:la diversidad.

    Como investigador interdisciplinario que piensa holísticamente sobre la ingeniería y el diseño y experto en dinámica y materiales inteligentes con intereses en la política, hemos examinado la falta de inclusión en el diseño tecnológico, las consecuencias negativas y las posibles soluciones.

    Personas a la mano

    Los investigadores y desarrolladores suelen seguir un proceso de diseño que implica probar funciones y características clave antes de lanzar los productos al público. Realizadas correctamente, estas pruebas pueden ser un componente clave del diseño compasivo. Las pruebas pueden incluir entrevistas y experimentos con grupos de personas que representan al público.

    En entornos académicos, por ejemplo, la mayoría de los participantes en el estudio son estudiantes. Algunos investigadores intentan reclutar participantes fuera del campus, pero estas comunidades suelen ser similares a la población universitaria. Las cafeterías y otros negocios de propiedad local, por ejemplo, pueden permitir que se publiquen volantes en sus establecimientos. Sin embargo, la clientela de estos establecimientos suele ser estudiantes, profesores y personal académico.

    En muchas industrias, los compañeros de trabajo sirven como participantes de prueba para el trabajo de etapa inicial porque es conveniente reclutar dentro de una empresa. Se necesita esfuerzo para atraer a participantes externos y, cuando se utilizan, a menudo reflejan a la mayoría de la población. Por lo tanto, muchas de las personas que participan en estos estudios tienen características demográficas similares.

    Tahira Reid habla sobre el diseño compasivo en ingeniería.

    Daño del mundo real

    Es posible utilizar una muestra homogénea de personas en la publicación de un trabajo de investigación que se suma al cuerpo de conocimiento de un campo. Y algunos investigadores que realizan estudios de esta manera reconocen las limitaciones de las poblaciones de estudio homogéneas. Sin embargo, cuando se trata de desarrollar sistemas que se basan en algoritmos, tales descuidos pueden causar problemas en el mundo real. Los algoritmos son tan buenos como los datos que se utilizan para construirlos.

    Los algoritmos a menudo se basan en modelos matemáticos que capturan patrones y luego informan a una computadora sobre esos patrones para realizar una tarea determinada. Imagine un algoritmo diseñado para detectar cuándo aparecen los colores en una superficie transparente. Si el conjunto de imágenes utilizado para entrenar ese algoritmo consta principalmente de tonos de rojo, es posible que el algoritmo no detecte cuando hay un tono de azul o amarillo.

    En la práctica, los algoritmos no han podido detectar tonos de piel más oscuros para el programa de cuidado de la piel de Google y en los dispensadores automáticos de jabón; identificar con precisión a un sospechoso, lo que condujo al arresto injusto de un hombre inocente en Detroit; e identificar de forma fiable a las mujeres de color. Joy Buolamwini, investigadora de inteligencia artificial del MIT, describe esto como un sesgo algorítmico y ha discutido y publicado extensamente trabajos sobre estos temas.

    Incluso mientras EE. UU. lucha contra el COVID-19, la falta de diversos datos de capacitación se ha vuelto evidente en los dispositivos médicos. Los oxímetros de pulso, que son esenciales para realizar un seguimiento de su salud en el hogar y para indicar cuándo podría necesitar hospitalización, pueden ser menos precisos para las personas con piel melanizada. Estas fallas de diseño, como las de los algoritmos, no son inherentes al dispositivo, sino que se remontan a la tecnología que se diseñó y probó utilizando poblaciones que no eran lo suficientemente diversas para representar a todos los usuarios potenciales.

    Ser inclusivos

    Los investigadores en el mundo académico a menudo se encuentran bajo presión para publicar los resultados de la investigación lo más rápido posible. Por lo tanto, es muy común confiar en muestras de conveniencia, es decir, personas a las que es fácil llegar y de las que obtener datos.

    Muchos problemas, como este dispensador de jabón automático que funciona para una mano blanca pero no para una mano negra, podrían evitarse con pruebas más inclusivas.

    Aunque existen juntas de revisión institucional para garantizar que los derechos de los participantes del estudio estén protegidos y que los investigadores sigan la ética adecuada en su trabajo, no tienen la responsabilidad de dictar a los investigadores a quién deben contratar. Cuando los investigadores están presionados por el tiempo, considerar diferentes poblaciones para los sujetos del estudio puede significar un retraso adicional. Finalmente, es posible que algunos investigadores simplemente no sepan cómo diversificar adecuadamente los temas de su estudio.

    Hay varias formas en que los investigadores académicos y de la industria pueden aumentar la diversidad de los grupos de participantes de sus estudios.

    Una es hacer tiempo para hacer el trabajo incómodo y, a veces, arduo de desarrollar estrategias de contratación inclusivas. Esto puede requerir un pensamiento creativo. Uno de esos métodos es reclutar estudiantes diversos que puedan servir como embajadores en comunidades diversas. Los estudiantes pueden adquirir experiencia en investigación al mismo tiempo que sirven como puente entre sus comunidades y los investigadores.

    Otra es permitir que los miembros de la comunidad participen en la investigación y den su consentimiento para tecnologías nuevas y desconocidas siempre que sea posible. Por ejemplo, los equipos de investigación pueden formar una junta asesora compuesta por miembros de varias comunidades. Algunos campos incluyen con frecuencia un consejo asesor como parte de sus planes de investigación financiados por el gobierno.

    Otro enfoque es incluir personas que sepan cómo pensar a través de las implicaciones culturales de las tecnologías como miembros del equipo de investigación. Por ejemplo, el uso de un perro robótico por parte del Departamento de Policía de la ciudad de Nueva York en Brooklyn, Queens y el Bronx provocó indignación entre los residentes. Esto podría haberse evitado si se hubieran comprometido con expertos en ciencias sociales o estudios de ciencia y tecnología, o simplemente consultado con líderes comunitarios.

    Por último, la diversidad no se trata solo de raza, sino también de edad, identidad de género, antecedentes culturales, niveles educativos, discapacidad, dominio del inglés e incluso niveles socioeconómicos. Lyft tiene la misión de implementar taxis robotizados el próximo año, y los expertos están entusiasmados con las perspectivas de usar taxis robotizados para transportar a personas mayores y discapacitadas. No está claro si estas aspiraciones incluyen a quienes viven en comunidades menos prósperas o de bajos ingresos, o si carecen del apoyo familiar que podría ayudar a preparar a las personas para usar el servicio. Antes de enviar un robotaxi para transportar abuelas, es importante tener en cuenta cómo una amplia gama de personas experimentará la tecnología.

    © Ciencia https://es.scienceaq.com