Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Jun 28, 2018 2:00 PM ET

Cerrar el lazo de agarre robótico


Cerrar el lazo de agarre robótico

iCrowd Newswire - Jun 28, 2018

25 de junio de 2018

Entre en QUT ha desarrollado una manera más rápida y precisa para los robots agarrar objetos, incluso en ambientes desordenados y cambiantes, que tiene el potencial para mejorar su utilidad en entornos industriales y domésticos.

  • El nuevo enfoque permite que un robot de exploración del medio ambiente y asignar cada píxel capta a su calidad de agarre con una imagen de profundidad rápidamente
  • Pruebas del mundo real han logrado tasas de alta precisión de hasta un 88% para dinámica agarrar y hasta 92% en experimentos de estática.
  • El enfoque se basa en una red neuronal convolucional agarrando generativo

De QUT Dr. Jürgen Leitner dijo mientras agarra y escogiendo encima de un objeto es una tarea básica para los seres humanos, ha resultado increíblemente difícil para las máquinas.

“Hemos sido capaces de robots de programa, en ambientes muy controlados, para recoger elementos muy específicos. Sin embargo, una de las principales carencias de los actuales sistemas de agarre robóticos es la incapacidad para adaptarse rápidamente al cambio, como cuando un objeto es movido,”dijo el Dr. Leitner.

“El mundo no es predecible, las cosas cambian y moverse y conseguir mezclan y, que sucede sin previo aviso, por lo robots deben ser capaz de adaptarse y trabajar en ambientes muy estructurados, si queremos ser eficaces,” dijo.

El nuevo método, desarrollado por el PhD investigador Douglas Morrison, el Dr. Leitner y Distinguido profesor Peter Corke de QUT Ciencias y Facultad de ingeniería, es un método de síntesis de comprensión en tiempo real, independiente del objeto para agarre cerrado.

“El enfoque de red Neural convolucional agarrando generativa funciona por predecir la calidad y la pose de un asimiento dos dedos en cada píxel. Mediante la asignación de lo que tienen delante con una imagen de profundidad en un solo paso, el robot no necesita probar muchos asimientos posible diferentes antes de tomar una decisión, evitando tiempo computación veces,”dijo el Señor Morrison.

“En nuestras pruebas del mundo real, hemos logrado una tasa de éxito del 83% asimiento en un conjunto de objetos inéditos con geometría acusatorio y 88% en un conjunto de objetos del hogar que fueron trasladados durante el intento de comprensión. También logramos 81% exactitud al apego en desorden dinámico.”

Dr. Leitner dijo que el enfoque superó una serie de limitaciones de las actuales técnicas de agarre profundo aprendizaje.

“Por ejemplo, en el desafío de Picking de Amazon, que nuestro equipo ganó en el año 2017, nuestro robot CartMan se vería en un contenedor de objetos, tomar una decisión en donde era el mejor lugar agarrar un objeto y luego ir ciegamente intentar recogerlo “dijo

“Con este nuevo método, podemos procesar imágenes de los objetos que un robot ve dentro de unos 20 milisegundos, que permite el robot actualizar su decisión sobre dónde agarrar un objeto y luego lo hacen con mucho propósito mayor. Esto es particularmente importante en los espacios desordenados,”él dijo.

Dr. Leitner dijo que las mejoras serían valiosas para la automatización industrial y en entornos domésticos.

“Esta línea de investigación nos permite utilizar sistemas robóticos no sólo en entornos estructurados donde toda la fábrica se construye basadas en las capacidades robóticas. También nos permite captar objetos en entornos no estructurados, donde cosas no perfectamente planeadas y ordenadas, y robots están obligados a adaptarse a los cambios.

“Esto tiene beneficios para la industria de almacenes para compras en línea y ordenar, a través a recogida de fruta. Podría también aplicarse en el hogar, desarrollo de robots más inteligentes para no aspirar o trapear un piso, pero también para recoger objetos y ponerlos lejos.”

Papel del equipo cerrar el lazo de agarre robótico: un en tiempo real, enfoque de síntesis comprender generativa será presentado esta semana en robótica: Ciencia y sistemas de, más Conferencia de robótica internacional selectiva, que se celebrará en la Universidad a Carnegie Mellon en Pittsburgh USA.

La investigación fue apoyada por el Centro Australiano para la visión robótica.

See Campaign: https://www.qut.edu.au/news?id=132368
Contact Information:
Closing the Loop for Robotic Grasping

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image




iCrowdNewswire

Tags:    News