Sztuczna inteligencja

Maszyny odczytują emocje lepiej od ludzi

Identyfikować gniew, strach i smutek potrafią także maszyny. Najnowsze badania wskazują, że są w tym już lepsze niż ludzie. Połączenie między ośrodkowym układem nerwowym a ekspresją emocjonalną na twarzy umożliwiło stworzenie algorytmów, które poprawnie rozpoznają ludzkie emocje poprzez kolor twarzy. Na rynku jest dostępny „emocjonalny aparat słuchowy”, czyli urządzenie, które pomaga dzieciom z zespołem Aspergera czytać emocje i reagować na mimikę twarzy. Empath, program do rozpoznawania emocji, który identyfikuje emocje poprzez analizę fizycznych właściwości głosu, pomoże z kolei w telefonicznej obsłudze klienta.

Sztuczna inteligencja odczytuje emocje

– Opracowaliśmy technologię do analizy emocji na podstawie głosu, działającą na bazie sztucznej inteligencji. Nasze rozwiązania nie analizują treści słów, ale sposób ich wypowiadania. Analizują tempo wypowiedzi, ton, głośność czy intonację głosu. Dzięki wykorzystaniu technologii uczenia maszynowego opracowaliśmy algorytm pozwalający ocenić stan psychiczny rozmówcy w oparciu o właściwości akustyczne jego wypowiedzi – mówi agencji Newseria Innowacje Hazumu Yamazaki, współzałożyciel spółki Empath.

Reklamodawcy, największe firmy technologiczne, a także służby graniczne używają oprogramowania do śledzenia twarzy do monitorowania naszych nastrojów. Maszyny mogą identyfikować gniew, strach czy smutek i są w tym coraz lepsze. Potwierdza to niedawno opublikowane badanie w Proceedings of National Academy of Sciences. Wynika z niego, że nasze twarze wyrażają uczucia kolorami. O ile ludzie są w stanie poprawnie zidentyfikować uczucia innych osób w 75 proc. przypadków w oparciu o subtelne zmiany koloru przepływu krwi wokół nosa, brwi czy policzków, o tyle w przypadku maszyn wskaźnik poprawnych wskazań sięga 90 proc.

Technologia pomaga także chorym – na rynku dostępne jest np. urządzenie, które pomaga zrozumieć emocje i dopasować mimikę twarzy do uczuć. Przydatne jest zwłaszcza osobom z chorobą Aspergera. Najczęściej jednak technologia znajduje zastosowanie w pracy, która opiera się na kontakcie z klientem. Maszyny na podstawie głosu, szybkości mowy i intonacji są w stanie dokładnie rozpoznać nastrój i emocje rozmówcy. Takie rozwiązania sprawdzają się w handlu i produkcji, także w call center pomagają sprawnie przeprowadzić rozmowę.

– Nasze rozwiązania potrafią zidentyfikować cztery emocje: radość, opanowanie, złość i smutek oraz określić poziom energii, który można porównać do wewnętrznego barometru, który znajduje się w naszych ciałach. Pomaga to określić poziom motywacji rozmówcy – wskazuje Hazumu Yamazaki.

Na rynku istnieje już np. oprogramowanie do analizy mowy w call center, które raportuje parametry rozmów telefonicznych, takie jak czas trwania, nastrój mówcy i atmosferę rozmowy. Wykrywa, kiedy może dojść do kłótni, pomaga zapobiegać konfliktom.

– Opracowana przez nas technologia może być używana przez biura telefonicznej obsługi klienta, w przemyśle motoryzacyjnym, robotyce, służbie zdrowia. Obecnie uwagę kierujemy głównie w stronę biur telefonicznej obsługi klienta i poprawy poziomu zadowolenia klienta z jakości obsługi oraz zmniejszenia poziomu fluktuacji kadr – tłumaczy współzałożyciel spółki Empath.

Analiza głosu

Analiza głosu wydobywa różne cechy akustyczne z głosu mówcy w czasie rzeczywistym, tym samym pozwala zrozumieć emocje rozmówcy. Technologia nie analizuje kontekstu językowego, wykrywa natomiast zmiany w zakresie głosu, które wskazują na gniew, niepokój, szczęście lub satysfakcję, niuanse nastroju czy nastawienie do rozmówcy.

– Oferujemy usługi wirtualnego asystenta, który wspiera pracę telefonistów oraz osób nadzorujących ich pracę, celem poprawy komunikacji w oparciu o empatię. Z tego powodu nasze produkty są kierowanie głównie do biur telefonicznej obsługi klienta. Obecnie mamy już 700 klientów w 50 krajach – mówi Hazumu Yamazaki.