Utilisation de l’imagerie profonde pour une résolution plus élevée

Utilisation de l'imagerie profonde pour une résolution plus élevée L'automatisation existe depuis la Grèce antique. Sa forme change, mais l'intention de faire en sorte que la technologie prenne en charge les tâches répétitives est restée constante, et un élément fondamental du succès a été la capacité à créer une image. La dernière itération concerne les robots, et le problème avec la majorité d'entre eux dans l'automatisation industrielle est qu'ils fonctionnent dans des environnements basés sur des appareils qui sont spécialement conçus pour eux. C'est bien si rien ne change, mais les choses changent inévitablement. Ce dont les robots doivent être capables, ce dont ils ne sont pas capables, c'est de s'adapter rapidement, de voir les objets avec précision, puis de les placer dans la bonne orientation pour permettre des opérations telles que l'assemblage et l'emballage autonomes. - poolsuppliers

L’automatisation existe depuis la Grèce antique. Sa forme change, mais l’intention de faire en sorte que la technologie prenne en charge les tâches répétitives est restée constante, et un élément fondamental du succès a été la capacité à créer une image. La dernière itération concerne les robots, et le problème avec la majorité d’entre eux dans l’automatisation industrielle est qu’ils fonctionnent dans des environnements basés sur des appareils qui sont spécialement conçus pour eux. C’est bien si rien ne change, mais les choses changent inévitablement. Ce dont les robots doivent être capables, ce dont ils ne sont pas capables, c’est de s’adapter rapidement, de voir les objets avec précision, puis de les placer dans la bonne orientation pour permettre des opérations telles que l’assemblage et l’emballage autonomes.

Akasha Imaging essaie de changer cela. La startup californienne aux racines du MIT utilise l’imagerie passive, des modalités et des spectres variés, combinés à un apprentissage en profondeur, pour fournir une détection, un suivi et une orientation de la pose à plus haute résolution de manière plus efficace et plus rentable. Les robots sont l’application principale et l’objectif actuel. À l’avenir, ce pourrait être pour les emballages et les systèmes de navigation. Ceux-ci sont secondaires, explique Kartik Venkataraman, PDG d’Akasha, mais comme l’adaptation serait minime, cela témoigne du potentiel global de ce que l’entreprise développe. « C’est la partie excitante de ce dont cette technologie est capable », dit-il.

Hors du labo

Lancé en 2019, Venkataraman a fondé la société avec le professeur associé du MIT Ramesh Raskar et Achuta Kadambi PhD ’18. Raskar est membre du corps professoral du MIT Media Lab tandis que Kadambi est un ancien étudiant diplômé du Media Lab, dont les recherches tout en travaillant sur son doctorat deviendraient la base de la technologie d’Akasha.

See also  Google ने यूरोप में Play ऐप स्टोर से RT, Sputnik को ब्लॉक किया

Les partenaires ont vu une opportunité avec l’automatisation industrielle, qui, à son tour, a aidé à nommer l’entreprise. Akasha signifie “la base et l’essence de toutes choses dans le monde matériel”, et c’est cette infinité qui inspire un nouveau type d’imagerie et d’apprentissage en profondeur, dit Venkataraman. Elle concerne spécifiquement l’estimation de l’orientation et de la localisation des objets. Les systèmes de vision traditionnels de lidar et de lasers projettent diverses longueurs d’onde de lumière sur une surface et détectent le temps nécessaire à la lumière pour frapper la surface et revenir afin de déterminer son emplacement.

Des limites ont existé avec ces méthodes. Plus un système doit être éloigné, plus la puissance requise pour l’éclairage est importante ; pour une résolution plus élevée, plus la lumière projetée. De plus, la précision avec laquelle le temps écoulé est détecté dépend de la vitesse des circuits électroniques, et il existe une limitation basée sur la physique autour de cela. Les dirigeants de l’entreprise sont continuellement obligés de prendre une décision sur ce qui est le plus important entre la résolution, le coût et la puissance. « C’est toujours un compromis », dit-il.

Et la lumière projetée elle-même présente des défis. Avec des objets en plastique ou en métal brillants, la lumière rebondit et la réflectivité interfère avec l’éclairage et la précision des lectures. Avec des objets clairs et des emballages clairs, la lumière passe à travers et le système donne une image de ce qui se cache derrière la cible visée. Et avec les objets sombres, il y a peu ou pas de réflexion, ce qui rend la détection difficile, sans parler de fournir des détails.

See also  Philadelphie abandonne son mandat de masque.

Mettre à profit

L’un des objectifs de l’entreprise est d’améliorer la robotique. Dans l’état actuel des choses dans les entrepôts, les robots aident à la fabrication, mais les matériaux présentent les défis optiques susmentionnés. Les objets peuvent également être petits, où, par exemple, un ressort de 5 à 6 millimètres de long doit être ramassé et enfilé dans un arbre de 2 mm de large. Les opérateurs humains peuvent compenser les imprécisions car ils peuvent toucher des objets, mais comme les robots manquent de retour tactile, leur vision doit être précise. Si ce n’est pas le cas, tout léger écart peut entraîner un blocage où une personne doit intervenir. De plus, si le système d’imagerie n’est pas fiable et précis plus de 90 % du temps, une entreprise crée plus de problèmes qu’elle n’en résout et perd de l’argent, dit-il.

Un autre potentiel est d’améliorer les systèmes de navigation automobile. Le lidar, une technologie actuelle, peut détecter qu’il y a un objet sur la route, mais il ne peut pas nécessairement dire de quel objet il s’agit, et cette information est souvent utile, « dans certains cas vitale », dit Venkataraman.

Dans les deux domaines, la technologie d’Akasha offre plus. Sur une route ou une autoroute, le système peut détecter la texture d’un matériau et être en mesure d’identifier si ce qui approche est un nid-de-poule, un animal ou une barrière de travaux routiers. Dans l’environnement non structuré d’une usine ou d’un entrepôt, cela peut aider un robot à saisir et à mettre ce ressort dans l’arbre ou à déplacer des objets d’un conteneur transparent à un autre. En fin de compte, cela signifie une augmentation de leur mobilisation.

See also  Biden vil kunngjøre Siemens-investering, planlagte fabrikkjobber

Avec les robots dans l’automatisation de l’assemblage, un obstacle tenace a été que la plupart n’ont pas de système visuel. Ils ne peuvent trouver un objet que parce qu’il est fixe et qu’ils sont programmés où aller. « Ça marche, mais c’est très rigide », dit-il. Lorsque de nouveaux produits arrivent ou qu’un processus change, les montages doivent également changer. Cela nécessite du temps, de l’argent et une intervention humaine, et cela entraîne une perte globale de productivité.

En plus de ne pas avoir la capacité de voir et de comprendre essentiellement, les robots n’ont pas la coordination œil-main innée que les humains ont. “Ils ne peuvent pas comprendre le désordre du monde au jour le jour”, déclare Venkataraman, mais, ajoute-t-il, “avec notre technologie, je pense que cela commencera à se produire”.

Comme pour la plupart des nouvelles entreprises, la prochaine étape consiste à tester la robustesse et la fiabilité dans des environnements réels jusqu’au «niveau inférieur au millimètre» de précision, dit-il. Après cela, les cinq prochaines années devraient voir une expansion dans diverses applications industrielles. Il est pratiquement impossible de prédire lesquels, mais il est plus facile de voir les avantages universels. « À long terme, nous verrons cette vision améliorée comme un catalyseur pour une intelligence et un apprentissage améliorés », déclare Venkataraman. “En retour, cela permettra alors l’automatisation de tâches plus complexes que ce qui était possible jusqu’à présent.”