• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    10 cosas más difíciles de enseñar a un robot
    Oye, los robots pueden jugar a atraparla. Robot Justin, un sistema humanoide de dos brazos, desarrollado por la agencia aérea y espacial alemana, Deutsches Zentrum fur Luft- und Raumfahrt, Puede realizar tareas determinadas de forma autónoma, como atrapar pelotas o servir café. Ver más imágenes de robots. © Michael Dalder / Reuters / Corbis

    Ser humano es mucho más fácil que construir un ser humano.

    Tome algo tan simple como jugar a la pelota con un amigo en el jardín delantero. Cuando se divide esta actividad en las funciones biológicas discretas necesarias para realizarla, no es nada simple. Necesitas sensores transmisores y efectores. Debes calcular la fuerza de lanzamiento en función de la distancia entre tú y tu compañero. Debes tener en cuenta el resplandor del sol, velocidad del viento y distracciones cercanas. Debe determinar con qué firmeza agarrar la pelota y cuándo apretar el guante durante una recepción. Y necesita poder procesar una serie de escenarios hipotéticos:¿Qué pasa si la pelota pasa por encima de mi cabeza? ¿Y si sale rodando a la calle? ¿Qué pasa si choca contra la ventana de mi vecino?

    Estas preguntas demuestran algunos de los desafíos más urgentes de la robótica, y prepararon el escenario para nuestra cuenta regresiva. Hemos compilado una lista de las 10 cosas más difíciles de enseñar a los robots ordenados aproximadamente de "más fácil" a "más difícil":10 cosas que tendremos que conquistar si alguna vez vamos a cumplir las promesas hechas por Bradbury. Polla, Asimov, Clarke y todos los demás narradores que han imaginado un mundo en el que las máquinas se comportan como personas.

    Contenido
    1. Abrir un camino
    2. Mostrar destreza
    3. Mantener una conversacion
    4. Adquirir nuevas habilidades
    5. Practica el engaño
    6. Anticipar las acciones humanas
    7. Coordinar actividades con otro robot
    8. Hacer copias de sí mismo
    9. Actuar con base en un principio ético
    10. Sentir emociones

    10:Abre un camino

    La prueba de navegación definitiva para un robot:¡Marte! Hasta aquí, La curiosidad ha demostrado ser bastante hábil. Imagen cortesía de NASA / JPL-Caltech / MSSS

    Pasar del punto A al punto B suena muy fácil. Los humanos lo hacemos todo el día cotidiano. Para un robot, aunque, La navegación, especialmente a través de un único entorno que cambia constantemente o entre entornos en los que nunca se ha encontrado antes, puede ser un negocio complicado. Primero, el robot debe poder percibir su entorno, y luego debe poder dar sentido a los datos entrantes.

    Los especialistas en robótica abordan el primer problema armando sus máquinas con una serie de sensores, escáneres cámaras y otras herramientas de alta tecnología para evaluar su entorno. Los escáneres láser se han vuelto cada vez más populares, aunque no se pueden utilizar en entornos acuáticos porque el agua tiende a interrumpir la luz y reduce drásticamente el alcance del sensor. La tecnología de sonda ofrece una opción viable en robots submarinos, pero en aplicaciones terrestres, es mucho menos preciso. Y, por supuesto, un sistema de visión que consta de un conjunto de cámaras estereoscópicas integradas puede ayudar a un robot a "ver" su paisaje.

    Recopilar datos sobre el medio ambiente es solo la mitad de la batalla. El mayor desafío consiste en procesar esos datos y usarlos para tomar decisiones. Muchos investigadores hacen que sus robots naveguen utilizando un mapa preespecificado o construyendo un mapa sobre la marcha. En robótica, esto se conoce como GOLPE - localización y mapeo simultáneos . El mapeo describe cómo un robot convierte la información recopilada con sus sensores en una representación determinada. La localización describe cómo se posiciona un robot en relación con el mapa. En la práctica, estos dos procesos deben ocurrir simultáneamente, creando un acertijo del huevo y la gallina que los investigadores han podido superar con computadoras más potentes y algoritmos avanzados que calculan la posición en función de probabilidades.

    9:Mostrar destreza

    Veintiuno un robot destinado a ayudar a las personas mayores y discapacitadas en la casa, demuestra su capacidad para sostener objetos delicados manipulando una pajita para beber entre sus dedos en la Universidad de Waseda en Tokio el 8 de enero. 2009. © Issei Kato / Reuters / Corbis

    Los robots llevan años recogiendo paquetes y piezas en fábricas y almacenes. Pero generalmente evitan a los humanos en estas situaciones, y casi siempre funcionan con objetos de formas consistentes en entornos libres de desorden. La vida está mucho menos estructurada para cualquier robot que se aventure más allá de la fábrica. Si tal máquina alguna vez espera funcionar en hogares u hospitales, Necesitará un sentido del tacto avanzado capaz de detectar personas cercanas y seleccionar un elemento de una colección desordenada de cosas.

    Estas son habilidades difíciles de aprender para un robot. Tradicionalmente, los científicos evitaron el contacto por completo, programar sus máquinas para que fallen si entraban en contacto con otro objeto. Pero en los últimos cinco años más o menos, Ha habido avances significativos en diseños compatibles y piel artificial. Cumplimiento se refiere al nivel de flexibilidad de un robot. Las máquinas altamente flexibles son más compatibles; las máquinas rígidas lo son menos.

    En 2013, Los investigadores de Georgia Tech construyeron un brazo robótico con resortes para articulaciones, lo que permite que el apéndice se doble e interactúe con su entorno más como un brazo humano. Próximo, lo cubrieron todo con una "piel" capaz de sentir la presión o el tacto. Algunas pieles de robot contienen placas de circuito hexagonales entrelazadas, cada uno con sensores infrarrojos que pueden detectar cualquier cosa que se acerque más a un centímetro. Otros vienen equipados con "huellas digitales" electrónicas:superficies elevadas y estriadas que mejoran el agarre y facilitan el procesamiento de la señal.

    Combine estos brazos de alta tecnología con sistemas de visión mejorados, y obtienes un robot que puede ofrecer una tierna caricia o meter la mano en los gabinetes para seleccionar un artículo de una colección más grande.

    8:Mantenga una conversación

    El ingeniero de mecatrónica Ben Schaefer interactúa con el barman robot humanoide Carl mientras prepara una bebida en el Robots Bar and Lounge en Alemania el 26 de julio. 2013. Desarrollado por Schaefer, Carl también puede interactuar con los clientes en pequeñas conversaciones. © Fabrizio Bensch / Reuters / Corbis

    Alan M. Turing, uno de los fundadores de la informática, hizo una predicción audaz en 1950:las máquinas algún día serían capaces de hablar con tanta fluidez que no podríamos distinguirlas de los humanos. Pobre de mí, Los robots (incluso Siri) no han estado a la altura de las expectativas de Turing, todavía. Eso es porque el reconocimiento de voz es muy diferente a procesamiento natural del lenguaje - lo que hace nuestro cerebro para extraer significado de palabras y oraciones durante una conversación.

    Inicialmente, Los científicos pensaron que sería tan simple como conectar las reglas de la gramática en los bancos de memoria de una máquina. Pero la codificación rígida de un manual gramatical para cualquier idioma ha resultado imposible. Incluso proporcionar reglas sobre los significados de palabras individuales ha hecho que el aprendizaje de idiomas sea una tarea abrumadora. ¿Necesitas un ejemplo? Piense en "nuevo" y "sabía" o "banco" (un lugar para poner dinero) y "banco" (el lado de un río). Resulta que los humanos le dan sentido a estas idiosincrasias lingüísticas confiando en las capacidades mentales desarrolladas durante muchos años. muchos años de evolución, y los científicos no han podido dividir estas capacidades en discretas, reglas identificables.

    Como resultado, Hoy en día, muchos robots basan su procesamiento de lenguaje en estadísticas. Los científicos los alimentan con enormes colecciones de texto, conocido como cuerpo , y luego dejar que sus computadoras dividan el texto más largo en trozos para averiguar qué palabras suelen unirse y en qué orden. Esto permite que el robot "aprenda" un idioma basado en análisis estadístico. Por ejemplo, a un robot, la palabra "murciélago" acompañada de la palabra "mosca" o "ala" se refiere al mamífero volador, mientras que "bate" seguido de "pelota" o "guante" se refiere al deporte de equipo.

    7:Adquirir nuevas habilidades

    Un robot muestra sus habilidades de escritura durante un concurso de robots inteligentes creado por estudiantes universitarios en la Universidad de Ciencia y Tecnología de Anhui de China el 16 de noviembre. 2012. © Chen Bin / Xinhua Press / Corbis

    Digamos que alguien que nunca ha jugado al golf quiere aprender a hacer swing con un palo. Podría leer un libro sobre eso y luego probarlo, o podría ver a un golfista experimentado realizar los movimientos adecuados, un enfoque más rápido y sencillo para aprender el nuevo comportamiento.

    Los roboticistas se enfrentan a un dilema similar cuando intentan construir una máquina autónoma capaz de aprender nuevas habilidades. Una aproximación, como en el ejemplo del golf, consiste en dividir una actividad en pasos precisos y luego programar la información en el cerebro del robot. Esto supone que se pueden analizar todos los aspectos de la actividad, descrito y codificado, cuales, como resulta, no siempre es fácil de hacer. Hay ciertos aspectos del swing con un palo de golf, por ejemplo, que posiblemente no se puede describir, como la interacción de la muñeca y el codo. Estos detalles sutiles se pueden comunicar mucho más fácilmente mostrándolos en lugar de contando.

    En años recientes, Los investigadores han tenido cierto éxito al enseñar a los robots a imitar a un operador humano. Ellos llaman a esto aprendizaje de imitación o aprendiendo de la demostración ( LfD ), y lo logran armando sus máquinas con conjuntos de cámaras de gran angular y zoom. Este equipo permite al robot "ver" a un maestro humano realizando un proceso o actividad específicos. Luego, los algoritmos de aprendizaje procesan estos datos para producir un mapa de funciones matemáticas que conecta la entrada visual con las acciones deseadas. Por supuesto, Los robots en escenarios LfD deben poder ignorar ciertos aspectos del comportamiento de su maestro, como rascarse un picor, y lidiar con problemas de correspondencia. que se refiere a las formas en que la anatomía de un robot se diferencia de la de un humano.

    6:Practica el engaño

    Las ardillas se practican en el arte del engaño, así que los investigadores han recurrido a estos astutos roedores en busca de algunas ideas sobre cómo enseñar a los robots comportamientos engañosos. John Foxx / Stockbyte / Thinkstock

    El fino arte del engaño ha evolucionado para ayudar a los animales a adelantarse a sus competidores y evitar que los depredadores se los coman. Con práctica, la habilidad puede convertirse en un mecanismo de supervivencia muy eficaz.

    Para robots, aprender a engañar a una persona u otro robot ha sido un desafío (y eso podría estar bien para usted). El engaño requiere imaginación, la capacidad de formar ideas o imágenes de objetos externos que no están presentes para los sentidos, que es algo de lo que normalmente carecen las máquinas (consulte el siguiente elemento de nuestra lista). Son excelentes para procesar la entrada directa de los sensores, cámaras y escáneres, pero no tan bueno para formar conceptos que existen más allá de todos esos datos sensoriales.

    Sin embargo, los robots del futuro pueden estar mejor versados ​​en los trucos. Los investigadores de Georgia Tech han podido transferir algunas habilidades engañosas de las ardillas a los robots en su laboratorio. Primero, estudiaron los roedores peludos, que protegen sus escondites de comida enterrada al llevar a los competidores a viejos, cachés no utilizados. Luego codificaron esos comportamientos en reglas simples y las cargaron en el cerebro de sus robots. Las máquinas pudieron usar los algoritmos para determinar si el engaño podría ser útil en una situación determinada. Si es así, luego pudieron proporcionar una comunicación falsa que llevó a un robot compañero lejos de su escondite.

    5:Anticípese a las acciones humanas

    Si los humanos van a pasar mucho tiempo con robots, como este humanoide apodado ROBOY, las máquinas tendrán que mejorar un poco a la hora de predecir lo que harán los seres humanos aparentemente impredecibles a continuación. © Erik Tham / Corbis

    En "Los Supersónicos, "Rosie, la criada robot, pudo mantener conversaciones, cocinar comidas, limpiar la casa y atender las necesidades y deseos de George, Jane Judy y Elroy. Para comprender el desarrollo avanzado de Rosie, considere esta escena del primer episodio de la primera temporada:Sr. Spacely, El jefe de George, viene a la casa de los Jetson a cenar. Despues de comer, El Sr. Spacely saca un puro y se lo lleva a la boca, lo que hace que Rosie se apresure con un encendedor. Esta simple acción representa un comportamiento humano complejo:la capacidad de anticipar lo que viene a continuación en función de lo que acaba de suceder.

    Como el engaño anticipar la acción humana requiere que un robot imagine un estado futuro. Debe poder decir "Si observo a un humano haciendo x, entonces puedo esperar basado en experiencia previa, que probablemente lo seguirá con y ". Este ha sido un serio desafío en robótica, pero los humanos están progresando. En la Universidad de Cornell, un equipo ha estado trabajando para desarrollar un robot autónomo que pueda reaccionar en función de cómo un compañero interactúa con los objetos del entorno. Para lograr esto, el robot utiliza un par de cámaras 3D para obtener una imagen del entorno. Próximo, un algoritmo identifica los objetos clave en la habitación y los aísla del desorden de fondo. Luego, utilizando una gran cantidad de información recopilada de sesiones de capacitación anteriores, el robot genera un conjunto de probables anticipaciones basadas en el movimiento de la persona y los objetos que toca. El robot hace una mejor suposición de lo que sucederá a continuación y actúa en consecuencia.

    Los robots de Cornell todavía adivinan mal algunas veces, pero están progresando constantemente especialmente a medida que mejora la tecnología de la cámara.

    4:coordinar actividades con otro robot

    Primer plano de un miembro del equipo de fútbol de robots de Columbia. Una de las ligas de fútbol de RoboCup cuenta con varios robots totalmente autónomos que trabajan juntos para practicar este deporte. ¡Otra liga cuenta con robots humanoides! © John Vizcaino / Reuters / Corbis

    Construyendo un solo máquina a gran escala:un androide, si lo desea, requiere importantes inversiones de tiempo, energía y dinero. Otro enfoque implica el despliegue de un ejército de Robots más simples que luego trabajan juntos para realizar tareas más complejas.

    Esto trae un conjunto diferente de desafíos. Un robot que trabaja dentro de un equipo debe poder posicionarse con precisión en relación con sus compañeros de equipo y debe poder comunicarse de manera efectiva, con otras máquinas y con operadores humanos. Para solucionar estos problemas, los científicos se han volcado al mundo de los insectos, que exhiben un comportamiento de enjambre complejo para encontrar comida y completar tareas que benefician a toda la colonia. Por ejemplo, estudiando hormigas, Los investigadores saben que los individuos usan feromonas para comunicarse entre sí.

    Los robots pueden utilizar esta misma "lógica de feromonas, "aunque dependen de la luz, no productos químicos, comunicar. Funciona así:un grupo de pequeños robots se dispersa en un área confinada. En primer lugar, exploran el área al azar hasta que un individuo se encuentra con un rastro de luz dejado por otro robot. Sabe seguir el rastro y lo hace, dejando su propio rastro de luz a medida que avanza. A medida que el sendero se refuerza, cada vez más bots lo encuentran y se unen al tren de vagones. Algunos investigadores también han tenido éxito utilizando chirridos audibles. El sonido se puede utilizar para asegurarse de que los robots individuales no se alejen demasiado o para atraer a los compañeros de equipo a un elemento de interés.

    3:Hacer copias de sí mismo

    Una hidra muestra su capacidad de autorreplicación, uno que a algunos robotocistas no les importaría incorporar en sus máquinas. luismmolina / iStock / Thinkstock

    Dios les dijo a Adán y Eva, "Sean fructíferos y multiplíquense, y reponer la tierra ". Un robot que recibiera el mismo comando se sentiría desconcertado o frustrado. ¿Por qué? Porque la autorreplicación ha resultado difícil de alcanzar. Una cosa es construir un robot y otra completamente distinta es construir un robot que pueda hacer copias de sí mismo o regenerar componentes perdidos o dañados.

    Curiosamente, los robots pueden no considerar a los humanos como modelos reproductivos. Quizás haya notado que en realidad no nos dividimos en dos partes idénticas. Animales simples, sin embargo, haz esto todo el tiempo. Los familiares de medusas conocidas como hidra practican una forma de reproducción asexual conocida como en ciernes :Un pequeño saco se hincha hacia afuera desde el cuerpo del padre y luego se rompe para convertirse en un nuevo, individuo genéticamente idéntico.

    Los científicos están trabajando en robots que puedan llevar a cabo este procedimiento básico de clonación. Muchos de estos robots se construyen a partir de elementos repetidos, generalmente cubos, que contienen maquinaria idéntica y el programa de autorreplicación. Los cubos tienen imanes en sus superficies para que puedan adherirse y separarse de otros cubos cercanos. Y cada cubo se divide en dos piezas a lo largo de una diagonal para que cada mitad pueda girar de forma independiente. Un robot completo, luego, consta de varios cubos dispuestos en una configuración específica. Siempre que haya un suministro de cubos disponible, un solo robot puede inclinarse, retire cubos de su "cuerpo" para sembrar una nueva máquina y luego recoja los bloques de construcción del alijo hasta que dos robots completamente formados estén uno al lado del otro.

    2:Actuar con base en un principio ético

    Si construye robots autónomos letales que no requieren operadores humanos, ¿Cómo exactamente programarías la ética? © Fang Zhe / Xinhua Press / Corbis

    A medida que interactuamos con la gente a lo largo del día, tomamos cientos de decisiones. En cada uno, comparamos nuestras elecciones con lo que está bien y lo que está mal, lo que es justo e injusto. Si queremos que los robots se comporten como nosotros, necesitarán una comprensión de la ética.

    Como el lenguaje codificar el comportamiento ético es un desafío enorme, principalmente porque no existe un conjunto general de principios éticos universalmente aceptados. Las diferentes culturas tienen diferentes reglas de conducta y diferentes sistemas de leyes. Incluso dentro de las culturas, Las diferencias regionales pueden afectar la forma en que las personas evalúan y miden sus acciones y las acciones de quienes las rodean. Tratar de escribir un manual de ética relevante a nivel mundial que los robots pudieran usar como herramienta de aprendizaje sería prácticamente imposible.

    Con eso dicho, Recientemente, los investigadores han podido construir robots éticos limitando el alcance del problema. Por ejemplo, una máquina confinada a un entorno específico:una cocina, decir, o la habitación de un paciente en un centro de vida asistida - tendría muchas menos reglas que aprender y tendría un éxito razonable en la toma de decisiones éticamente sólidas. Para lograr esto, Los ingenieros de robots ingresan información sobre opciones consideradas éticas en casos seleccionados en un algoritmo de aprendizaje automático. Las opciones se basan en tres criterios de escala móvil:cuánto bien resultaría una acción, cuánto daño evitaría y una medida de justicia. A continuación, el algoritmo genera un principio ético que el robot puede utilizar al tomar decisiones. Usando este tipo de inteligencia artificial, su robot doméstico del futuro podrá determinar quién en la familia debe lavar los platos y quién puede controlar el control remoto del televisor por la noche.

    1:siente emociones

    Junto con sus habilidades emotivas, Nao claramente sabe cómo relajarse. © Gerd Roth / dpa / Corbis

    "Las cosas mejores y más bellas del mundo no se pueden ver ni tocar. Hay que sentirlas con el corazón". Si esta observación de Helen Keller es cierta, entonces los robots estarían destinados a perderse lo mejor y lo bello. Después de todo, son excelentes para sentir el mundo que los rodea, pero no pueden convertir esos datos sensoriales en emociones específicas. No pueden ver la sonrisa de un ser querido y sentir alegría, o grabar la mueca de un extraño en las sombras y temblar de miedo.

    Esta, más que nada en nuestra lista, podría ser lo que separa al hombre de la máquina. ¿Cómo se puede enseñar a un robot a enamorarse? ¿Cómo puedes programar la frustración, asco, ¿asombro o lástima? ¿Vale la pena intentarlo?

    Algunos científicos creen que sí. Creen que los robots del futuro integrarán ambos sistemas de emociones cognitivas, y eso, como resultado, podrán funcionar mejor aprende más rápido e interactúa más eficazmente con los humanos. Por extraño que parezca, Ya existen prototipos que expresan una gama limitada de emociones humanas. Nao, un robot desarrollado por un equipo de investigación europeo, tiene las cualidades afectivas de un niño de 1 año. Puede mostrar felicidad enfado, miedo y orgullo, todo combinando posturas con gestos. Estas acciones de visualización, derivado de estudios de chimpancés y bebés humanos, están programados en Nao, pero el robot decide qué emoción mostrar basándose en su interacción con personas y objetos cercanos. En los próximos años, robots como Nao probablemente funcionarán en una variedad de entornos:hospitales, hogares y escuelas, en las que podrán ayudar y escuchar con simpatía.

    Mucha más información

    Nota del autor:10 cosas más difíciles de enseñar a los robots

    El robot de "Lost in Space" (la serie de televisión de la década de 1960, no la horrible película de 1998) vagaba por mi imaginación mientras escribía este artículo. Era difícil escribir sobre humanos interactuando con máquinas y no escuchar la advertencia icónica del Robot:"Peligro, Will Robinson, peligro! "- resonando en mis pensamientos.

    Artículos relacionados

    • 10 robots malvados empeñados en destruir la humanidad
    • 10 robots con trabajos sucios
    • ¿Qué hace que los robots realistas sean tan espeluznantes?
    • ¿Cómo conduce un robot una sinfonía?
    • ¿Qué es un nano quadrotor?

    Fuentes

    • Ackerman, Evan. "Cornell enseña a los robots a usar sus imaginaciones al organizar sus cosas". Espectro IEEE. Junio ​​21, 2012. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/cornell-teaching-robots-to-use-their-imaginations-when-organizing-your-stuff
    • Ackerman, Evan. "Los robots tecnológicos de Georgia aprenden comportamientos engañosos de las ardillas". Espectro IEEE. 3 de diciembre 2012. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/robots-learn-deceptive-behaviors-from-squirrels
    • Ackerman, Evan. "Por qué es importante enseñar a un robot a buscar una taza de café". Espectro IEEE. 9 de mayo 2013. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/robotics-software/pr2-robot-fetches-cup-of-coffee
    • Anderson, Michael y Susan Leigh Anderson. "Robot, Sea bueno ". Scientific American. Octubre de 2010.
    • Batalin, Maxim A., Gaurav S. Sukhatme y Myron Hattig. "Navegación de robot móvil utilizando una red de sensores". Conferencia Internacional IEEE sobre Robótica y Automatización. 26 de abril 2004. (4 de noviembre de 2013) http://robotics.usc.edu/publications/media/uploads/pubs/367.pdf
    • Bonabeau, Eric y Guy Théraulaz. "Swarm Smarts". Informes de Scientific American. Edición especial sobre robótica. 2008.
    • Breazeal, Cynthia y Rodney Brooks. "Robot Emotion:una perspectiva funcional". Grupo de Robótica Personal. 2005. (4 de noviembre de 2013) http://robotic.media.mit.edu/pdfs/other/Breazeal-Brooks-03.pdf
    • Carroll, Chris. "Enseñar a los robots a anticipar las acciones humanas". Noticias de National Geographic. 31 de Mayo, 2013. (4 de noviembre de 2013) http://news.nationalgeographic.com/news/2013/05/130531-personal-robot-beer-microsoft-kinect-saxena-science/
    • Dillow, Arcilla. "Mejorar el sentido del tacto de los robots dándoles huellas dactilares similares a las de los humanos". Ciencia popular. 21 de septiembre 2011. (4 de noviembre de 2013) http://www.popsci.com/technology/article/2011-09/enhancing-robots-senses-touch-giving-them-human-fingerprints
    • Durrant-Whyte, Hugh y Tim Bailey. "Localización y mapeo simultáneo (SLAM):Parte I Los algoritmos esenciales". Revista de Robótica y Automatización. 2006. (4 de noviembre de 2013) http://www-personal.acfr.usyd.edu.au/tbailey/papers/slamtute1.pdf
    • Englert, Pedro Alexandros Paraschos, Jan Peters y Marc Peter Deisenroth. "Aprendizaje de imitación basado en modelos mediante el emparejamiento de trayectoria profesional". Actas de la Conferencia Internacional IEEE sobre Robótica y Automatización. 2013. (4 de noviembre de 2013) http://www.is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/2013/Englert_ICRA_2013.pdf
    • Grifo, Catherine. "Científicos del MIT crean robots autoensamblables M-Cube:transformadores del mundo real". Informe mundial de la ciencia. 4 de octubre 2013. (4 de noviembre de 2013) http://www.scienceworldreport.com/articles/9948/20131004/mit-scientists-create-m-cube-self-assembling-robots-real-world.htm
    • Halverson, Nic. "La piel electrónica da a los robots un sentido del tacto". Noticias de descubrimiento. 1 de julio, 2011. (4 de noviembre de 2013) http://news.discovery.com/tech/robotics/electronic-skin-gives-robots-sense-touch-110701.htm
    • Handwerk, Brian. "¿Robot Revolution? Los científicos enseñan a los robots a aprender". Noticias de National Geographic. 18 de julio 2013. (4 de noviembre de 2013) http://news.nationalgeographic.com/news/2013/07/130719-robot-lfd-pr2-artificial-intelligence-crowdsourcing-robotics-machine-learning/
    • Difícilmente Larry. "Enseñar a los robots el pensamiento lateral". Noticias del MIT. 25 de febrero 2013. (4 de noviembre de 2013) http://web.mit.edu/newsoffice/2013/teaching-robots-lateral-thinking-0225.html
    • Hartshorne, Joshua K. "¿Dónde están los robots parlantes?" Mente científica americana. Marzo / abril de 2011.
    • Hicks, Jennifer. "Enseñar a los robots a engañar". Forbes. 30 de diciembre 2012. (4 de noviembre de 2013) http://www.forbes.com/sites/jenniferhicks/2012/12/30/teaching-robots-to-deceive/
    • Jha, Alok. "Se presenta el primer robot capaz de desarrollar y mostrar emociones". El guardián. 8 de agosto 2010. (4 de noviembre de 2013) http://www.theguardian.com/technology/2010/aug/09/nao-robot-develop-display-emotions
    • Jones, Josué investigador científico, Instituto de Tecnología de Georgia. Correspondencia por correo electrónico. 11 de noviembre 2013. http://www.cc.gatech.edu/~jj187/
    • Korn, Jon. "A 'Bot Bestiario:La tradición robótica en la ciencia ficción". LitReactor. 13 de julio 2012. (4 de noviembre de 2013) http://litreactor.com/columns/a-bot-bestiary-the-robotic-tradition-in-science-fiction
    • Marcar, John. "Los investigadores ponen el sentido del tacto al alcance de los robots". Los New York Times. 28 de abril 2013. (4 de noviembre de 2013) http://www.nytimes.com/2013/04/28/science/researchers-put-sense-of-touch-in-reach-for-robots.html?_r=0
    • OpenSLAM.org. "¿Qué es SLAM?" (4 de noviembre, 2013) http://www.openslam.org/
    • Ratlif, Nathan D., J. Andrew Bagnell y Siddhartha Srinivasa. "Aprendizaje por imitación para la locomoción y la manipulación". Instituto de Robótica, Universidad de Carnegie mellon. Diciembre de 2007. (4 de noviembre de 2013) http://www.ri.cmu.edu/pub_files/pub4/ratliff_nathan_2007_4/ratliff_nathan_2007_4.pdf
    • Rieland, Cachondo. "Los robots obtienen el toque humano". Revista Smithsonian. 10 de noviembre 2011. (4 de noviembre de 2013) http://blogs.smithsonianmag.com/ideas/2011/11/robots-get-the-human-touch/
    • Schultz, Colin. "Este nuevo robot tiene sentido del tacto". Revista Smithsonian. 29 de abril 2013. (4 de noviembre de 2013) http://blogs.smithsonianmag.com/smartnews/2013/04/this-new-robot-has-a-sense-of-touch/
    • Sorbete Moshe y James A. Reggia. "Adelante y Replica". Informes de Scientific American. Edición especial sobre robótica. 2008.
    • Steele, Factura. "Los investigadores construyen un robot que puede reproducirse". Crónica de Cornell. 25 de mayo, 2005. (4 de noviembre de 2013) http://www.news.cornell.edu/stories/2005/05/researchers-build-robot-can-reproduce
    • Summet, Arrendajo. Correspondencia por correo electrónico. 22 de noviembre 2013. http://www.summet.com/
    • Tofel, Kevin C. "MIT:Estamos un paso más cerca de los objetos autorreplicantes". Gigaom. 3 de abril, 2012. (4 de noviembre de 2013) http://gigaom.com/2012/04/03/mit-were-one-step-closer-to-self-replicating-objects/
    • Wadsworth, Derek. "Robótica adaptativa". Laboratorio Nacional de Idaho. (4 de noviembre, 2013) https://inlportal.inl.gov/portal/server.pt/community/robotics_and_intelligence_systems/455
    © Ciencia https://es.scienceaq.com