Учёные из MIT научили ИИ понимать тактильные ощущения

Учёные из MIT научили ИИ понимать тактильные ощущения

18.06.2019 [11:59],


Сергей Тверье


Роботы, какие смогут ориентироваться в пространстве на ощупь, возникнут в недалёком предбудущем, утверждают исследователи из Лаборатории компьютерных наук и ненастоящего интеллекта Массачусетского технологического института(MIT). В недавно опубликованной ими научной работе, какая будет представлена на этой неделе на Конференции по компьютерному зрению и распознаванию образов в Лонг-Бич, Калифорния, они описывают систему на базе ненастоящего интеллекта(ИИ), способную воссоздавать визуальный образ объекта по тактильным ощущениям и предсказать тактильные ощущения от прикосновения к нему на основе изображения.




Учёные из MIT научили ИИ использовать тактильные ощущения. Доколе что на недалекой выборке, однако ИИ уже может понять к чему и где он прикасается, а также предсказать ощущения от прикосновения к объекту на основе одного лишь изображения



«Используя визуальное изображение, наша модель может представить вероятные ощущения от прикосновения к плоской поверхности или к острому краю», — говорит аспирант Лаборатории ненастоящего интеллекта MIT и ведущий автор работы Юнчжу Ли(Yunzhu Li), какой провёл изыскания вкупе с профессорами MIT Руссом Тедрейком(Russ Tedrake)и Антонио Торралба(Antonio Torralba), а также постдокторантом Джун-Ян Чжу(Jun-Yan Zhu). «Попросту касаясь объектов без использования зрения, наша ИИ-модель может предсказать взаимодействие с облегающей сферой недюжинно по тактильным ощущениям. Ассоциация этих двух ощущений может расширить возможности роботов и уменьшить объем данных, какие требуются для выполнения задач, связанных с манипулированием и захватом объектов».

Учёные из MIT научили ИИ понимать тактильные ощущения



ИИ предсказывает тактильные ощущения на базе визуальной информации(зелёный квадрат — настоящие с тактильного сенсора, алый — прогноз ИИ)

Для генерации изображений на основе тактильных данных команда исследователей использовала GAN(англ. Generative adversarial network — генеративно-состязательная сеть)— двухчастную нейронную сеть, состоящую из генератора, какой создаёт искусственную выборку, и дискриминатора, какие пробуют различить сгенерированные и реальные образцы. Обучалась модель на особенной базе данных, которую исследователи наименовали «VisGel», представляющую собой совокупность из более чем 3 миллионов пар визуальных и тактильных изображений и включающую в себя 12 000 видеоклипов почитай 200 объектов(таких будто инструменты, материи и товары для дома), какие ученые самостоятельно оцифровали при помощи безыскусный веб-камеры и тактильного датчика GelSight, разработанного иной группой исследователей в MIT.

Используя тактильные настоящие, модель научилась ориентироваться сравнительно места прикосновения к объекту. Например, используя эталонную выборку данных по обуви и освобожденные с тактильного датчика настоящие, путём сравнения определить, к какой части обуви и с какой насильно в настоящий момент прикасается манипулятор Kuka. Эталонные изображения поддержали системе верно декодировать информацию об объектах и облегающей сфере, позволяя отдаленнее ИИ самосовершенствоваться самостоятельно.




На базе тактильной информации ИИ определяет, какого объекта коснулся манипулятор и в каком месте(зелёный квадрат — считывание информации, алый — отыскание места прошлого касания при помощи ИИ)



Исследователи отмечают, что текущая модель имеет примеры взаимодействий всего в контролируемой сфере и доколе ещё малопригодна для утилитарного применения, и что кое-какие параметры, например, таковские будто мягкость объекта, системе определить доколе ещё сложно. Тем не менее, они уверены, что их подход заложит основу для предбудущей интеграции человека с роботом в производственных условиях, необычно в тех ситуациях, когда визуальных данных попросту недостаточно, например, когда свет по каким-то причинам отсутствует, и человеку доводится манипулировать с объектами вслепую.

«Это первая технология, какая может достоверно транслировать визуальные и сенсорные сигналы дружок в друга», — говорит Эндрю Оуэнс(Andrew Owens), научный сотрудник Калифорнийского университета в Беркли. «Подобные методы потенциально могут быть очень полезны для робототехники, когда вам надобно ответить на вопросы субъекта „Этот объект твёрдый или мягкий?“ или „Если я подниму эту кружку за ручку, как надёжен мой захват?“ — это очень сложная задача, настолько будто сигналы очень неодинаковые, и эта модель(созданная исследователями из MIT)продемонстрировала большущие возможности».

0 комментариев

© 2019 Все права соблюдены.