A través de avances en inteligencia artificial y aprendizaje automático, Los investigadores de Princeton están desarrollando tecnologías en el cuidado de la salud, transporte, energía y muchas otras áreas. Crédito:Daniel Hertzberg
La inteligencia artificial ya forma parte de la vida cotidiana. Nos ayuda a responder preguntas como "¿Este correo electrónico es spam?" Identifica amigos en fotografías en línea, selecciona noticias basadas en nuestra política y nos ayuda a depositar cheques a través de nuestros teléfonos, aunque todo de manera algo imperfecta.
Pero estas aplicaciones son solo el comienzo. A través de los avances en informática, los investigadores están creando nuevas capacidades que tienen el potencial de mejorar nuestras vidas de formas que aún no hemos imaginado. Los investigadores de Princeton están a la vanguardia de esta investigación, desde los fundamentos teóricos hasta las nuevas aplicaciones y dispositivos y las consideraciones éticas.
Los intentos de construir sistemas inteligentes son tan antiguos como las propias computadoras. Los primeros esfuerzos a menudo involucraban la programación directa de reglas de comportamiento en un sistema. Por ejemplo, los investigadores podrían introducir las leyes del movimiento para controlar un brazo robótico. Pero los comportamientos resultantes generalmente se quedaron cortos.
Con inteligencia artificial, las computadoras aprenden de la experiencia. A través del "aprendizaje automático, "un subcampo de la inteligencia artificial, las computadoras están programadas para tomar decisiones, aprender de los resultados, y adaptarse a la retroalimentación del medio ambiente.
El aprendizaje automático está transformando las becas en todo el campus, dijo Jennifer Rexford, Gordon Y.S. de Princeton Wu Catedrático de Ingeniería y presidente del departamento de informática.
"Princeton tiene una larga tradición de trabajo sólido en ciencias de la computación y matemáticas, y tenemos muchos departamentos que son de primera categoría, combinado con un énfasis en el servicio a la humanidad, "Dijo Rexford." Simplemente no se obtiene eso en todas partes ".
Resultados positivos
Un desafío social al que se enfrentan las máquinas con inteligencia artificial es cómo tomar mejores decisiones sobre el cuidado de la salud. Barbara Engelhardt, profesor asociado de informática, está creando algoritmos para ayudar a los médicos a adoptar prácticas que tengan más probabilidades de tener resultados positivos para los pacientes.
Por ejemplo, ¿Cuándo se debe retirar a un paciente del ventilador? Usado por uno de cada tres pacientes en unidades de cuidados intensivos, un ventilador es un dispositivo que salva vidas, pero es invasivo, costoso y puede propagar la infección. Los médicos suelen esperar más de lo necesario para retirar a un paciente de un ventilador. porque si se equivocan, podrían complicar aún más la salud del paciente.
En asociación con investigadores del sistema hospitalario de la Universidad de Pensilvania, Engelhardt y su equipo tienen como objetivo trasladar la atención al paciente de un enfoque único para todos a uno que se adapte a los pacientes individuales. Su algoritmo considera muchos factores del paciente y luego calcula cuándo y cómo retirar al paciente del ventilador. Toma numerosas decisiones, incluida la cantidad de sedante que se debe administrar antes del procedimiento y cómo probar si el paciente puede respirar sin ayuda.
El aprendizaje automático también podría ayudar en situaciones en las que la atención médica humana de alta calidad no esté disponible de inmediato. como con pacientes en cuidados paliativos, que podría ser monitoreado las 24 horas del día como por un especialista.
Aprendizaje reforzado
Engelhardt utiliza un enfoque de aprendizaje automático llamado aprendizaje por refuerzo, una desviación de la práctica más antigua, pero todavía ampliamente utilizada, de "aprendizaje supervisado, "donde los programadores proporcionan a las computadoras conjuntos de datos de entrenamiento y piden a las máquinas que generalicen a situaciones nuevas. Por ejemplo, enseñarle a una computadora a identificar perros en fotos, los programadores proporcionan decenas de miles de imágenes, a partir del cual la computadora desarrolla sus propias reglas para determinar si las nuevas fotos contienen un perro.
Aprendizaje reforzado, por el contrario, se parece más al aprendizaje de prueba y error que utilizan los niños pequeños. Un niño pequeño que intente acariciar al gato de la familia y reciba un golpe fuerte aprenderá a mantenerse alejado de los gatos. Similar, las computadoras prueban cosas e interpretan los resultados.
Mengdi Wang, un profesor asistente de investigación de operaciones e ingeniería financiera, estudia este enfoque. Ha utilizado el aprendizaje por refuerzo para limitar el riesgo en las carteras financieras, ayudar a un hospital local a predecir complicaciones en la cirugía de reemplazo de rodilla, y asociarse con Microsoft Research para producir diálogos con calidad de historia.
Un desafío al implementar el aprendizaje por refuerzo es la sobrecarga de datos. Las computadoras no tienen la ventaja del olvido humano, por lo que deben procesar todos los datos entrantes. En la práctica, los expertos a menudo tienen que intervenir para establecer algunos límites en la cantidad de elementos que deben tenerse en cuenta.
"Tener demasiadas variables es el cuello de botella del aprendizaje por refuerzo, "Dijo Wang." Incluso si tienes toda la información del mundo, tienes una cantidad limitada de poder de procesamiento ".
Wang desarrolló un método para ayudar a las computadoras a descubrir qué es y qué no es importante. Es un algoritmo que reduce la complejidad comprimiendo matemáticamente una gran colección de posibles estados en una pequeña cantidad de posibles clústeres. El enfoque, que desarrolló con Anru Zhang de la Universidad de Wisconsin-Madison, utiliza estadísticas y optimización para agrupar los escenarios probables para cada etapa de un proceso de toma de decisiones.
IA al rescate
Aunque el aprendizaje por refuerzo es poderoso, no ofrece garantías cuando un algoritmo se enfrenta a un nuevo entorno. Por ejemplo, Un vehículo aéreo autónomo (dron) entrenado para realizar misiones de búsqueda y rescate en un determinado conjunto de entornos puede fallar dramáticamente cuando se despliega en uno nuevo.
Desarrollar enfoques para garantizar la seguridad y el rendimiento de los drones es el objetivo de Anirudha Majumdar, profesor asistente de ingeniería mecánica y aeroespacial. Debido a limitaciones tecnológicas y de seguridad, La mayoría de los drones de hoy requieren que un humano controle la nave usando sus cámaras y sensores. Pero conduciendo drones a través de edificios destruidos, como los de la central eléctrica Fukushima Daiichi dañada por radiactividad en Japón, presenta desafíos.
Los vehículos aéreos autónomos podrían ayudar en los esfuerzos de búsqueda y rescate en espacios reducidos donde el riesgo de error humano es grande. Majumdar está explorando cómo aplicar un conjunto de herramientas del aprendizaje automático conocido como "teoría de la generalización" para garantizar la seguridad de los drones en nuevos entornos. Mas o menos, La teoría de la generalización proporciona formas de reducir la diferencia entre el rendimiento en los datos de entrenamiento y el rendimiento en los datos nuevos.
Aprendizaje de idiomas
Enseñar a las computadoras a reconocer formas es una cosa, pero enseñarles a entender el lenguaje cotidiano es otra muy distinta. Para abordar la cuestión de cómo el cerebro procesa el lenguaje, Los investigadores de Princeton escanearon los cerebros de voluntarios que vieron episodios de la serie de televisión de la BBC "Sherlock" para ver qué está haciendo el cerebro mientras su dueño está recibiendo nueva información.
El desafío era cómo agregar resultados de varios cerebros para identificar tendencias. Cada cerebro tiene una forma ligeramente diferente, dando lugar a ligeras diferencias en sus exploraciones de imágenes de resonancia magnética funcional (fMRI). "Es como si enviaras mil turistas a tomar una foto de la Torre Eiffel. Cada foto será ligeramente diferente según la cámara, el lugar donde el turista se paró para tomar la foto, Etcétera, "dijo Peter Ramadge, el Gordon Y.S. Wu Catedrático de Ingeniería y director del Centro de Estadística y Aprendizaje Automático. "Necesita aprendizaje automático para comprender qué es común a la respuesta de todos los temas, " él dijo.
Ramadge y otros informáticos, incluyendo al entonces estudiante de pregrado Kiran Vodrahalli de la promoción de 2016, trabajó con investigadores del Instituto de Neurociencia de Princeton para agregar escáneres cerebrales utilizando un método para encontrar puntos en común llamado "modelo de respuesta compartida". Luego mapearon la actividad cerebral al diálogo en los episodios utilizando una técnica de procesamiento del lenguaje natural, que extrae el significado del habla, desarrollada por Sanjeev Arora, Profesor Charles C. Fitzmorris de Princeton en Ciencias de la Computación, y su equipo.
Si bien un método típico de reconocimiento de voz necesita una gran cantidad de ejemplos, el nuevo método es capaz de extraer significado de una colección relativamente pequeña de palabras, como los pocos cientos que se encuentran en el guión del programa de televisión. En un artículo publicado en la revista NeuroImage en junio de 2017, los investigadores demostraron que podían determinar a partir de las exploraciones de resonancia magnética funcional qué escena se estaba observando con una precisión de aproximadamente el 72 por ciento.
En la caja negra
El aprendizaje automático tiene el potencial de desbloquear preguntas que los humanos encuentran difíciles o imposibles de responder. especialmente aquellos que involucran grandes conjuntos de datos. Para preguntas realmente complejas, los investigadores han desarrollado un método llamado aprendizaje profundo, inspirado en el cerebro humano. Este método se basa en redes neuronales artificiales, colecciones de neuronas artificiales que, como células cerebrales reales, puede recibir una señal, procesalo, y producir una salida para pasar a la siguiente neurona.
Si bien el aprendizaje profundo ha tenido éxito, los investigadores todavía están descubriendo para qué tareas es más adecuado, dijo Arora, quien recientemente fundó un programa en aprendizaje automático teórico en el cercano Instituto de Estudios Avanzados. "El campo se ha utilizado mucho al tratar el aprendizaje profundo como una caja negra, ", dijo." La pregunta es qué veremos cuando abramos la caja negra ".
Consecuencias no deseadas
Además de amplias cuestiones éticas sobre el uso de la IA y las implicaciones de las máquinas inteligentes en la sociedad, Las preocupaciones a corto plazo sobre los sistemas de inteligencia artificial que quitan puestos de trabajo a las personas son cada vez más comunes. Entra Ed Felten, que está investigando políticas para frenar las consecuencias no deseadas de la IA.
Felten, el profesor Robert E. Kahn de Ciencias de la Computación y Asuntos Públicos y director del Centro de Política de Tecnología de la Información de Princeton, se desempeñó como subdirector de tecnología de EE. UU. en la Casa Blanca de Obama, donde dirigió iniciativas de políticas federales sobre inteligencia artificial y aprendizaje automático.
Con investigadores de la Universidad de Nueva York, Felten ha explorado si los datos pueden respaldar las preocupaciones sobre el impacto de la inteligencia artificial en el empleo y la economía. Los investigadores utilizaron puntos de referencia estándar publicados por investigadores de IA. Para el reconocimiento visual, por ejemplo, el equipo evaluó cuántas imágenes categorizó correctamente un algoritmo de IA. Felten y sus colegas emparejaron esta estimación con conjuntos de datos proporcionados por la Oficina de Estadísticas Laborales.
La pregunta es si la IA reemplazará a los trabajadores, o complementar sus esfuerzos y generar oportunidades aún mayores? La historia muestra que las nuevas tecnologías a menudo resultan beneficiosas para los trabajadores a largo plazo, pero no sin dolores a corto plazo para los trabajadores reemplazados por la tecnología.
Si bien algunos investigadores piensan que los trabajos de baja calificación experimentarán la mayor amenaza de las máquinas artificialmente inteligentes, Los números de Felten sugieren lo contrario. Los pilotos y abogados de aerolíneas pueden estar al menos tan amenazados por la automatización como la persona detrás del mostrador en el 7-Eleven local. él dijo.
"Cosas como la limpieza de la casa son muy difíciles de automatizar, "Felten dijo." La persona que hace ese trabajo necesita tomar muchas decisiones contextuales. ¿Qué objetos del suelo son basura y qué objetos del suelo son objetos valiosos que han caído al suelo? "
Felten y su equipo planean emparejar sus hallazgos con información geográfica, dando una especie de mapa de calor sobre qué regiones del país se verán más afectadas, permitir que las empresas y los gobiernos se preparen para los cambios venideros.
"Soy optimista porque creo que hay una gran oportunidad, ", Dijo Felten." La IA conducirá a un progreso tremendo en muchas áreas diferentes. Pero conlleva riesgos y fácilmente podríamos hacerlo mal ".