Робота научили передавать речь жестами

Please log in or register to like posts.
Новости

Корейские ученые научили трехмерную систему сопровождать речь жестами, использовав для этого 52 часа записи выступлений спикеров на TED Talks. С помощью алгоритма разметки OpenPose и нейросети им удалось научить систему сопровождать синтезированную речь правдоподобными жестами, а также использовать ее для управления человекоподобным роботом.

Об этом сообщает arXiv.org.

Читайте также: Робота научили мыть туалет

Ученые из Научно-исследовательского института электроники и телекоммуникаций (ETRI) и Корейского института передовых технологий (KAIST) решили научить робота невербальной коммуникации – жестам. Для этого они собрали датасет из 52 часов записи выступлений спикеров на конференциях TED Talks.

Жесты людей на видео были размечены с помощью открытого алгоритма OpenPose (использовались только движения головы, торса и рук). В результате получилась система, которая воспроизводит положение тела в трехмерном пространстве в соответствии с синтезированной речью.


Робот NAO научился воспроизводить речь жестами

Затем ученые попросили 46 человек оценить по шкале от 1 до 5, насколько жесты, сопровождающие язык, антропоморфные, соответствуют сказанному и приятны на вид. Оказалось, что воспроизведеннsе алгоритмом жесты превзошли по всем параметрам все другие методы.

Читайте также: В Китае ведущим стал искусственный интеллект: как он выглядит

Полученную систему использовали в гуманоидном роботе NAO (он часто используется в исследованиях взаимодействия роботов с людьми): авторы робота утверждают, что нейросети удалось успешно воспроизвести заданные ему комбинации движений.

Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно

Источник

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *