Technologia, która potrafi rozpoznawać ludzkie emocje, została opracowana przez profesora Jiyuna Kima i jego zespół badawczy na Wydziale Nauki i Inżynierii Materiałowej UNIS. Ta innowacyjna technologia może zrewolucjonizować różne branże.
Zrozumienie i dokładne wyodrębnienie informacji emocjonalnych od dawna stanowi wyzwanie ze względu na abstrakcyjny i niejednoznaczny charakter ludzkich emocji, takich jak nastroje i uczucia. Aby rozwiązać ten problem, zespół badawczy opracował multimodalny system rozpoznawania ludzkich emocji, który łączy dane dotyczące ekspresji werbalnej i niewerbalnej w celu skutecznego wykorzystania kompleksowych informacji emocjonalnych.
Sercem tego systemu jest spersonalizowany system interfejsu twarzy zintegrowanego ze skórą (PSiFI), który ma własne zasilanie, jest łatwy w obsłudze, rozciągliwy i przezroczysty. Zawiera pierwszy w swoim rodzaju dwukierunkowy czujnik naprężeń i wibracji, który umożliwia jednoczesne wykrywanie i integrację danych dotyczących ekspresji werbalnej i niewerbalnej. System jest w pełni zintegrowany z układem przetwarzania danych umożliwiającym bezprzewodowy transfer danych, umożliwiając rozpoznawanie emocji w czasie rzeczywistym.
Wykorzystując algorytmy uczenia maszynowego, opracowana technologia umożliwia dokładne rozpoznawanie ludzkich emocji w czasie rzeczywistym, nawet jeśli ludzie noszą maski. System z powodzeniem został także zastosowany w aplikacji cyfrowego concierge w środowisku wirtualnej rzeczywistości (VR).
Technologia opiera się na zjawisku, podczas którego obiekty pod wpływem tarcia rozdzielają się na ładunki dodatnie i ujemne.
Profesor Kim skomentował:
– W oparciu o te technologie opracowaliśmy system interfejsu twarzy zintegrowanego ze skórą (PSiFI), który można dostosować do indywidualnych potrzeb.
Zespół wykorzystał technikę półutwardzania do wytworzenia przezroczystego przewodnika do ciernych elektrod ładujących. Dodatkowo stworzono spersonalizowaną maskę przy użyciu techniki fotografowania pod wieloma kątami, łączącej elastyczność, sprężystość i przezroczystość.
Zespół badawczy z powodzeniem zintegrował wykrywanie deformacji mięśni twarzy i wibracji strun głosowych, umożliwiając rozpoznawanie emocji w czasie rzeczywistym. Możliwości systemu zademonstrowano w aplikacji „digital concierge” działającej w wirtualnej rzeczywistości, w której świadczone były usługi dostosowane do indywidualnych potrzeb, oparte na emocjach użytkowników.
Jin Pyo Lee, pierwszy autor badania, stwierdził:
– Dzięki temu opracowanemu systemowi możliwe jest wdrożenie rozpoznawania emocji w czasie rzeczywistym w zaledwie kilku krokach uczenia się i bez skomplikowanego sprzętu pomiarowego. Otwiera to możliwości dla przenośnych urządzeń do rozpoznawania emocji, a w przyszłości oparte na emocjach usługi platform cyfrowych nowej generacji.
Zespół badawczy przeprowadził eksperymenty z rozpoznawaniem emocji w czasie rzeczywistym, zbierając dane multimodalne, takie jak deformacja mięśni twarzy i głos. System wykazywał wysoką dokładność rozpoznawania emocji przy minimalnym przeszkoleniu. Jego bezprzewodowy i konfigurowalny charakter zapewnia łatwość noszenia i wygodę.
Profesor Kim podkreślił: „Aby zapewnić efektywną interakcję między ludźmi i maszynami, urządzenia interfejsu człowiek-maszyna (HMI) muszą być w stanie gromadzić różnorodne typy danych i przetwarzać złożone, zintegrowane informacje. To badanie ilustruje potencjał wykorzystania emocji, które są złożonymi formami ludzkich emocji. informacji w systemach ubieralnych nowej generacji.”
Wyniki badań opublikowano w czasopiśmie Nature Communications
Zdjęcie zajawka: rawpixel.com/Freepik
Zostaw komentarz
You must be logged in to post a comment.