Фото: Jonathan Cohen |
Специалист Бингэмптонского университета Лижунь Инь хочет научить компьютер понимать эмоции и выражения лица человека. Команда исследователей под руководством Иня разработала алгоритмы, с помощью которых компьютер определяет направление взгляда пользователя, а также его жесты и речь. Задача разработчиков — добиться упомянутого «понимания» методом анализа изображений с веб-камеры. Некоторые успехи уже есть: с помощью разработанного исследователями интерфейса можно управлять презентациями PowerPoint движениями глаз. На следующем этапе Инь хочет добиться возможности распознавания эмоционального состояния пользователя. Плодом предыдущих этапов деятельности исследователя стало создание базы, содержащей около 2500 трехмерных моделей лиц, выражающих разные эмоции.