Появляются роботы, которые способны распознавать эмоции

робот-няня

В ближайшем будущем многие устройства смогут распознавать, как мы чувствуем, таким образом, роботы станут одними из наших самых близких друзей.

Мы проводим больше времени наедине с телефоном и компьютером, чем с любим другим человеком. Мы спим с телефоном в кровати, проверяем последнее сообщение, перед тем как уснуть и это первое, что мы делаем, когда открываем наши глаза. Американская компания технологических исследований Unisys уверяет, что человек медлит с сообщением о кражи бумажника в среднем на двадцать шесть часов, но если человек потерял телефон, заявление об этом поступает на 68-й минуте.

Ноутбуки и смартфоны стали нашими постоянными спутниками. Перед ними мы снимаем свои маски, мы не притворяемся, мы с ними, такие как есть. Жаль, что они не могут вести себя также (на данный момент). Поскольку мы много часов проводим с ноутбуками, они не способны угадать грустно ли нам и не могут отреагировать соответствующим образом. Поражает их познавательный ум, но их эмоциональная составляющая равна нулю. Вы нервничаете, погружены в меланхолию или эйфорию, но у вас всегда будет та же умная и холодная машина. Несмотря на это, это устройство способно поглощать ваше внимание и изолировать от друзей и родственников: в самом деле, многие из наших социальных связей происходят через сети.

Эксперты сыты предупреждениями о дегуманизации, тем, что люди отдаляются от своих за друзей, отдавая предпочтение цифровым устройствам, эксперты стремятся сделать неожиданный поворот в этой области: внедрить в цифровой мир эмоции. И единственным способом сделать это является научить машины распознавать эмоции и аналогичным образом реагировать, как делал бы это человек.

Был дан окончательный сигнал, относительно недавно некоторые капиталисты из Санд Иль Роада, холма возле Стэндфордского университета инвестировали свои деньги в будущее, о которым вы даже не можете представить. Также эти нотабли решили инвестировать в новые стартапы, как Affectiva, eMotion, Realeyes, Sension и Emotient.

Эту направление было озвучено в 1995 году, Розалином Пикард, профессором Массачусетского технологического института, к нему отнеслись с сарказмом, если бы машина была действительно обходительной с человеком, пришлось бы наделить ее эмоциональной реакцией. «Разработчикам следует рассматривать перспективы по созданию программного обеспечения обеспечивающего взаимодействие с людьми», написал он. Затем он расширил свою теорию в книге Аффективные вычислители (аффективная информатика). И невольно он открыл новое поле в области компьютерных наук. Пикард был вдохновением для многих исследователей, такие как Калиюби из Египта, который при его сотрудничестве создал алгоритм Affdex, способный идентифицировать различные эмоции по лицу человека.

Стартап Affectiva, который вышел из проекта Массачусетского технологического института, почти, как и все компании сосредоточились на эмоциях, основываясь на исследованиях психолога Пола Экмана, который действительно из-за конкуренции запустил стартап Emotient, созданный Марианом Бартлеттом, профессором Калифорнийского университета.

Одинаковые выражения во всем мире
Экман начал свои исследования человеческих эмоций в 60-х годах и сумел создать основу того, что можно по лицу человека распознать шесть выражений эмоций, поскольку функционально они почти идентичны независимо от пола, возраста и культурного контекста. Поэтому он создал своего рода энциклопедию из пятисот страниц по компиляции всевозможных лицевых движений распознаваемых Системой кодирования лицевые действий.

Взяв на вооружение эту информацию, используя определенный алгоритм и технику автоматического обучения, машина сможет проводить различие между подлинной улыбкой и реальной болью. Для отличия одной эмоции от другой можно использоваться положение бровей и напряжение мышц. Создатели Affdex уверяют, что их точность интерпретации выражений лица приближается к 90%.

«Наша отправная точка — человеческое лицо», объясняет его основатель. «В науке человеческих эмоций, продолжает он, каждое движение лица представляет собой единицу действий. К примеру, растягивание губной комиссуры в улыбку — это единица действий номер двенадцать, хмурое выражение — число четыре». Люди невероятно последовательны и в одинаковой манере повторяют свои выражения, чтобы выразить те или иные чувства, например, когда они хмурят нос или брови. Это универсальные движения и все заключается в подготовке компьютеров для обнаружения небольших изменений в лицевых мышцах, различий в положении бровей и т.д.

По мнению Калиюби, получить машину, способную прочитать эти изменения действительно трудно, поскольку они быстро изменяются и сочетаются друг с другом. Чтобы научить компьютер отличить подлинную улыбку от ложной в программу вводится десятки тысяч лиц с реальной улыбкой разных возрастов, национальностей и полов, и такое же количество общественных улыбок. Посредством автоматического и машинного обучения, алгоритм идентифицирует изменения в линиях, складках и лицевых мышцах при свойственной человеку улыбке.

«Машины очень хорошо компилируют детали изображения. Практически незаметные изменения немедленно обнаруживаются, даже изменения в один пиксель. Задача заключается в том, чтобы получить машину способную определить, например, грусть в широком спектре лиц, которые существуют в человеческом роде», объясняет Джэй Таркот, исследователь Affectiva. И чтобы иметь возможность распознавать это, вы должны игнорировать небольшие индивидуальности каждого лица, которые не являются существенными. «Чтобы машина приблизилась к способности нашего вида распознавать эмоции или даже превзойти нас, она должна обрабатывать тысячи и тысячи различных лиц», объясняет Таркот.

помощник с пожилыми

Фото. Робот помогает в библиотеке

База данных с 2,9 миллионами лиц
Исследователь уверяет, что компьютеры настолько трудно и захватывающе научить, как обучить класс полный студентов: некоторые удивляют, другие вас разочаровывают, однако новые методологии лучшее тестируются и гармонирует... Affectiva удалось составить 12000 миллионов эмоциональных индикаторов, основанных на исследовании 2,9 миллиона лиц людей из 75 стран. Это самая большая эмоциональная база в мире.

Аналитическому программному обеспечению эмоции предстоит решить нелегкую задачу. В настоящее время ничто не превзошло человеческий глаз в выявлении лжи и обмана по лицам людей. Компьютеры превзошли нас в логике, но не в задаче восприятия, как распознавание голоса или идентификации объектов. По словам Бартлетта, «процессы восприятия легки для людей и трудны для машин». Однако в своей лаборатории в Сан-Диего, этот эксперт в автоматическом обучении машин добился того, что компьютеры превзошли людей в обнаружении ложных выражения боли. Конечно, он преуспел в контролируемой лабораторной среде, а не в реальном мире, но это первый шаг.

Система Бартлетта также основывается на Системе кодирования лицевых действий стартапа Ekman, которая разделяет мимику в движении: движения носа, век и т.д. с участием одной или нескольких мышц лица.

Команда Emotient работает несколько лет над созданием зрительной системы, которая автоматизировала бы своего рода энциклопедию лицевые движения и разработала другой алгоритм способный распознавать модели лиц, которые соответствуют каждой эмоции.

Во время эксперимента приняло участие двадцать пять добровольцев, которые были записаны на два видео. На первом снимали их лица, когда они подвергались реальной боли (на минуту рука была погружена в ведро со льдом). На втором снимали лица эти людей, которые имитировали, что им больно (на этот раз их рука была помещена в приятную теплую воду). Обе версии были показаны 170 человек, которые просмотрев их несколько раз, сделали много ошибок, чуть более половина случаев была правильно распознана. С другой стороны компьютерная система обнаружения боли идентифицировала лица с точностью до 85%. Результаты были опубликованы в журнале Current Biology.

Пауль Саффо, престижный аналитик и футуролог из Стэнфордского университета предсказывает, что технология сканирования лица может сочетаться с программами, которые имеют другие дополнительные режимы распознавания эмоций, таких как программное обеспечение, которое анализирует человеческий голос. «Если компьютеры достигнут развития, когда можно будет объединить коды голосовых датчиков лица и отслеживания жестов и взглядов, мы будем взаимодействовать с нашими машинами более естественно и менее непринужденным способом», сказал Саффо. Вы можете себе представить, что однажды вечером, когда вы спросите Siri (личный помощник-приложение) что хотели бы найти фильм, он распознает ваш голос, что вы грустите и зачитает только те фильмы, которые отлично подойдут вам? На примере Siri все ясно. Может что-то вроде похожее можно будет сделать и с креативной рекламой, что называют смарт-рекламой?

помощник с детьми

Фото. Робот играет с детьми

Ключевые прорывы для слепых и аутистов
Рекламные агентства очень заинтересованы в распознавании наших эмоций для цифровых нужд. Это не случайно, что клиентами Affectiva являются Unilever, Марс и Coca-Cola. В последнем издании Super Bowl компания также делится своим опытом по разработке алгоритма упорядочивания рекламы.

«Наша технология регистрирует индивидуальные выражения лица, в то время как пользователи видят объявление. В тот момент мы анализируем их. В настоящее время мы способны измерить эти выражения, предоставить клиенту аналитическое всеобъемлющее объявление на основе его эмоциональной реакции», объясняет Габи Сихдервельд, вице-президент Affectiva. Уже несколько исследований продемонстрировало, когда люди радуются, они также более сосредоточены и хорошо запоминают. Это имеет большое значение для рекламного творчества.

Для Калиюби самое удивительное то, что мы все время экспрессивны даже когда мы одни, наши сегодняшние устройства нечувствительны и не в состоянии понять нас. Было бы идеально, если этот молчаливый свидетель смог интерпретировать и отреагировать на наше настроение. Калиюби предсказывает, что за пять лет все устройства будут иметь встроенный эмоциональный чип и определенно станут нашими лучшими друзьями.

Однако новшества не направлены на приручении домашнего компьютера, скажем, вы решите в первый раз провести ряд финансовых сделок на неизвестном компьютере, он сможет идентифицировать ваши черты лица, распознать благочестивую ложь и чувство мучения, или выявить какие-либо другие эмоции, чтобы вы не пытались скрыть истинные цели от него.

Технология, наделенная эмоциями, может быть очень полезной для слепых людей. Очки с эмоциональным чипом выдавали бы информацию по лицам о людях, которые находятся впереди слепого. Также они могли бы помочь тем, кто страдает от синдрома аутистического характера интерпретировать их эмоциональные изменения и таким образом улучшить их социальную жизнь.

Образовательные приложения могли бы определить, когда пользователю скучно или ускорить темпы его обучения. Если бы они поняли, что студент смущен, вероятной реакцией было бы замедленная выдача содержимого.

Если машина определит, что вы утомлены, она никогда не позволит вам открыть холодильник, чтобы не дать вам превратиться в типичного полуночного обжору, что может привести к повышенной кислотности и чувству тяжести на следующий день.

Возможно, наступит день, когда ваш телефон будет настолько умным, что не позволить вам по ночам отсылать сообщения бывшим супругам по WhatsApp, чтобы после вы не жалели об этом.

Что кажется неправильным для Калиюби, так это то, что мы тратим весь день на то, что висим в устройствах, которые не понимают нас. Он пережил это на собственном опыте, когда он получил стипендию в Кембридже и ему пришлось отдалиться от своей семьи. «Я каждую ночь был в Skype, электронной почте, слал текстовые сообщения с телефона или компьютера, который понятия не имел о том, что я чувствовал», говорит он. Отсюда появилась идея наделить технологию, по крайней мере, одной капелькой эмоции. «Каждый раз, когда вы берете телефон, есть эмоциональный импульс, вы ждете чего-то. В нашем исследовании мы видели, как люди проверили свои телефоны 10-12 раз за час. Жаль, что они вообще не могут понять нас».

А также рекомендуем:
кибервойна и США
Войны развиваются. Возможно ли, чтобы в будущем конфликты проводились как обычная бескровная шахматная партия с помощью клавиатуры? Они будут использовать дронов или роботов с дистанционным управлением? Частично это уже видно ...
Подробнее
роботизированные мышцы
Новая мягкая гибкая и устойчивая кибер мышца позволит роботам двигаться как живые существа и лучше взаимодействовать с нами. Специалисты по биомиметике изучают натуральные структуры или способы организации живых существ и используют ...
Подробнее
28 дней спустя
По-видимому, мы с большей вероятностью умрем от восстания обезьяны, чем от нападения вампиров. Но наберитесь храбрости, у зомби-апокалипсиса больше потенциал, чем у любого-другого варианта окончания жизни на Земле. Интернет-сайт ставок, ...
Подробнее
девушка чешит голову
Для большинства людей, которые имеют хорошую память, вспомнить четкие детали некоторой запомненной информации на продолжении длительного периода времени, кажется простой задачей. Для неврологов неспособность помнить представляла собой выход из строя ...
Подробнее
напал клоун
В эпоху истины, слухи и ложные новости (фейки) имеют больше влияния, чем сами факты. Это не новое явление, но сеть является нашим идеальным проводником. Клоуны-убийцы возвращаются. Последнее упоминание было 30 лет ...
Подробнее
Как работает кибер-партизанская война
Получена искусственная мышца, которая имитирует человеческие движения
Каким будет апокалипсис на Земле?
Забывчивость может сделать нас умнее
Клоуны-убийцы и другие интернет-мистификации

Вы можете пропустить чтение записи и оставить комментарий. Размещение ссылок запрещено.

Оставить комментарий

;-) :| :x :twisted: :smile: :shock: :schu: :sad: :roll: :razz: :oops: :o :njam: :mrgreen: :lol: :laila: :idea: :grin: :gaf: :foto: :evil: :cry: :cool: :arrow: :???: :?: :!: