La mayoría de los robots logran la detección táctil y de agarre a través de medios motorizados, que pueden ser excesivamente voluminosos y rígidos. Un grupo de la Universidad de Cornell ha ideado una forma para que un robot suave sienta su entorno internamente, de la misma manera que lo hacen los humanos.
Un grupo dirigido por Robert Shepherd, profesor asistente de ingeniería mecánica y aeroespacial e investigador principal de Laboratorio de Robótica Orgánica, ha publicado un artículo que describe cómo las guías de ondas ópticas estirables actúan como sensores de curvatura, elongación y fuerza en una mano robótica blanda.
El estudiante de doctorado Huichan Zhao es el autor principal de “Mano protésica blanda con inervación optoelectrónica a través de guías de ondas ópticas estirables”, que aparece en la primera edición de Science Robotics. El artículo publicado el 6 de diciembre; También contribuyeron los estudiantes de doctorado Kevin O'Brien y Shuo Li, ambos del laboratorio de Shepherd.
“La mayoría de los robots de hoy en día tienen sensores en el exterior del cuerpo que detectan cosas desde la superficie”, dijo Zhao. “Nuestros sensores están integrados dentro del cuerpo, por lo que en realidad pueden detectar fuerzas que se transmiten a través del grosor del robot, muy parecido a lo que hacemos nosotros y todos los organismos cuando sentimos dolor, por ejemplo”.
Las guías de ondas ópticas se han utilizado desde principios de la década de 1970 para numerosas funciones de detección, incluidas las táctiles, de posición y acústicas. La fabricación fue originalmente un proceso complicado, pero el advenimiento en los últimos 20 años de la litografía blanda y la impresión 3D ha llevado al desarrollo de sensores elastoméricos que se producen e incorporan fácilmente en una aplicación robótica blanda.
El grupo de Shepherd empleó un proceso de litografía blanda de cuatro pasos para producir el núcleo (a través del cual se propaga la luz) y el revestimiento (superficie exterior de la guía de ondas), que también alberga el LED (diodo emisor de luz) y el fotodiodo.
Cuanto más se deforma la mano protésica, más luz se pierde a través del núcleo. Esa pérdida variable de luz, detectada por el fotodiodo, es lo que permite a la prótesis “sentir” su entorno.
“Si no se perdiera luz cuando doblamos la prótesis, no obtendríamos ninguna información sobre el estado del sensor”, dijo Shepherd. "La cantidad de pérdida depende de cómo se dobla".
El grupo usó su prótesis optoelectrónica para realizar una variedad de tareas, que incluyen agarrar y sondear tanto la forma como la textura. En particular, la mano pudo escanear tres tomates y determinar, por la suavidad, cuál era el más maduro.
Zhao dijo que esta tecnología tiene muchos usos potenciales más allá de las prótesis, incluidos los robots bioinspirados, que Shepherd ha explorado junto con albañil picotear, profesor asociado de ingeniería mecánica y aeroespacial, para su uso en la exploración espacial.
“Ese proyecto no tiene retroalimentación sensorial”, dijo Shepherd, refiriéndose a la colaboración con Peck, “pero si tuviéramos sensores, podríamos monitorear en tiempo real el cambio de forma durante la combustión [a través de la electrólisis del agua] y desarrollar mejores secuencias de actuación para hacer se mueve más rápido”.
El trabajo futuro sobre guías de ondas ópticas en robótica blanda se centrará en aumentar las capacidades sensoriales, en parte mediante la impresión en 3D de formas de sensores más complejas, y mediante la incorporación del aprendizaje automático como una forma de desacoplar señales de un mayor número de sensores. “En este momento”, dijo Shepherd, “es difícil localizar de dónde viene un toque”.
Este trabajo fue apoyado por una subvención de la Oficina de Investigación Científica de la Fuerza Aérea, y se hizo uso de la Instalación de ciencia y tecnología de nanoescala de Cornell y del Centro de Cornell para la investigación de materiales, ambos apoyados por la Fundación Nacional de Ciencias.
- tom fleischman, Universidad de Cornell