„W ciągu godziny rozmowy wykonujemy setki znaczących ruchów rąk. Wiele z nich jest przejawem naszych emocji i myśli. Część z nich wykonujemy nieświadomie. Wiele pozostaje niezauważonych przez naszych rozmówców” – tłumaczy jeden z autorów aplikacji dr Konrad Juszczyk z Wydziału Neofilologii Uniwersytetu im. Adama Mickiewicza.
Opracowana przez niego aplikacja będzie służyła do identyfikacji i interpretacji ruchów rąk. Ułatwi badaczom rozpoznawanie emocji i myśli oraz zaburzeń w komunikacji międzyludzkiej. „Skrócimy pracę badaczy ruchów rąk – psychologów i językoznawców. Wyręczymy ich w żmudnym opisie ruchów rąk i przyśpieszymy ich interpretację” – tłumaczy dr Juszczyk.
Automatyczne rozpoznawanie emocji i myśli w komunikacji przyda się wszystkim zainteresowanym odkrywaniem przekazów wyrażanych w komunikacji podczas sesji psychoterapeutycznych, badań fokusowych, wywiadów pogłębionych, rozmów kwalifikacyjnych, wystąpień publicznych, egzaminów ustnych. „Emocje i myśli wyrażane przez nasze ręce staną się jawne i znane nam wszystkim” – przekonuje dr Juszczyk.
Aplikacja powstanie we współpracy komunikologa dr. Konrada Juszczyka i mgr. Kamila Ciecierskiego z Politechniki Poznańskiej, który jest informatykiem. Do jej stworzenia wykorzystany zostanie czujnik ruchu MS Kinect, służący dzieciom do zabawy, a dorosłym do rozrywki, ale też inne urządzenia do śledzenia ruchu np. LEAP lub MYO. Wykryte przez czujniki wykonywane przez nas gesty i ruchy rąk będzie można zinterpretować poprzez porównanie ze stworzoną właśnie bazą ruchów rąk.
„Obecnie aplikacja jest w fazie testowej, działa na komputerze PC i wymaga jeszcze wielu poprawek, zanim będzie mogła być użyta w gabinecie psychoterapeuty, coacha czy innych zainteresowanych. Więcej szczegółów przedstawimy pod koniec projektu, czyli w 2015 roku" – wyjaśnia dr Juszczyk.
Prace nad aplikacją prowadzi dzięki wygranej w popularyzatorskim konkursie Inter – Fundacji na rzecz Nauki Polskiej. Jego laureaci otrzymali po 100 tys. złotych na realizację własnych badań naukowych.