Czym są roboty społeczne?
Eryka Probierz*: To roboty, które są w stałym kontakcie z człowiekiem, na przykład w domach dla osób starszych albo z dzieckiem ze spektrum autyzmu. Mogą być chatbotami albo wirtualną reprezentacją, na przykład awatarem lub hologramem. We Francji wdrożono robota w kształcie żaby, który ma wspomagać kontakty społeczne dzieci, uczyć odpowiednich reakcji. Jednak to, pod jaką postacią ten robot działa, jest nieistotne. Liczy się cel, czyli wzmacnianie pewnych funkcji społecznych u ludzi.
Jak definiowana jest ta „społeczność” robota?
Robot społeczny współpracuje z człowiekiem nad jakimś zadaniem społecznym. Nie ma go w fabryce, nie składa elementów ani nie spawa. Za to przypomina np. o wzięciu lekarstw albo zmierzeniu ciśnienia, a gdy dojdzie do jakiegoś wypadku, jest w stanie zadzwonić po pomoc. Dzieciom ze spektrum autyzmu pomaga rozpoznawać podstawowe emocje. W mojej pracy doktorskiej staram się odpowiedzieć na pytanie, czy robot społeczny powinien rozpoznawać i interpretować emocje, rozumieć kontekst sytuacyjny i społeczny, w którym się znajduje. Zaawansowane rozwiązania z dziedziny informatyki, jak uczenie maszynowe czy sieci neuronowe, pozwalają nam takiego robota „uspołecznić”, czyli sprawić, że będzie czytał między wierszami, analizując mimikę twarzy, gesty, ton głosu.
Innymi słowy – robot społeczny będzie bardziej społeczny, jeśli stanie się w pewien sposób empatyczny?
Można tak powiedzieć. Chodzi o to, aby robot nie tylko rozumiał co się do niego mówi dosłownie. Powinien również móc analizować emocjonalny charakter wypowiedzi, rozpoznawać ściszony lub podniesiony głos rozmówcy, wnioskować na podstawie mimiki twarzy, czy ma do czynienia z człowiekiem smutnym czy może rozgniewanym. Wtedy jest w stanie lepiej dopasować odpowiedź do kontekstu. Ludzie mają pewne oczekiwania wobec drugiego rozmówcy, np. że ten będzie utrzymywał kontakt wzrokowy albo okazywał w jakiś sposób zrozumienie. Oczywiście im w większym stopniu robot spełnia te oczekiwania, tym w większym stopniu jest akceptowalny przez człowieka i tym lepiej przebiega interakcja między człowiekiem a robotem. To ma niebagatelne znaczenie w aspekcie terapeutycznym.

Czy w swojej pracy proponuje Pani konkretne rozwiązania, które wzmacniają te „miękkie” kompetencje robota?
Tak, z jednej strony mamy obraz wideo, w którym przetwarzamy mimikę, gesty, posturę człowieka. W tym przypadku, dzięki wdrożeniu rozwiązań neuronowych i uczenia maszynowego, możemy analizować duże ilości danych, co pozwala nam przewidywać stan emocjonalny osoby będącej w interakcji z robotem. Mamy też kanał głosowy, z którego możemy wnioskować o takich niuansach jak natężenie głosu człowieka, wysokość, ton. To wszystko pozwala skuteczniej rozpoznawać warstwę emocjonalną. Co więcej, jeżeli robot wystarczająco długo rozmawiał z jednym człowiekiem, jest w stanie wyciągać pewne średnie i tworzyć sobie „typy” wypowiedzi, charakterystyczne dla danej sytuacji. Wtedy taki robot bardzo dobrze rozpoznaje np. ekscytację – bo człowiek mówi szybciej, wyższym głosem – albo smutek, bo wyczuwa dłuższe pauzy między wypowiedziami.
Czyli praca z zakresu automatyki, robotyki, psychologii i socjologii?
I informatyki (śmiech). Przetwarzamy dane, żeby m.in. zoptymalizować responsywność robota, bo przecież w trakcie spontanicznej rozmowy człowiek nie chce czekać w zawieszeniu na odpowiedź. Elementy psychologii i socjologii też są niezbędne, ponieważ bez analizy tego jak ludzie postępują i czego w sytuacjach społecznych oczekują, zabraknie nam wiedzy merytorycznej jak ten robot w rozmowie z człowiekiem powinien się zachowywać. I jakie zachowanie jest pożądane, a jakie nie.
Pani praca to chyba też potwierdzenie, że inżynier przyszłości będzie kimś w rodzaju technologicznego humanisty?
Na pewno idziemy w stronę interdyscyplinarności. Zgadzam się, że inżynier nie może ograniczać się do wiedzy technicznej, musi też rozwijać się w innych dziedzinach i nabywać kompetencje miękkie. Tym bardziej, że stopień skomplikowania i – powiedzmy – wielowymiarowości obszarów naukowych jest coraz większy. Technologiczny humanista jest dla mnie praktykiem w tym sensie, że nie zamyka się w swoim naukowym świecie. Jego wiedza może mieć dużą wartość akademicką, ale bez szerszej perspektywy trudno mu będzie przetransferować tę wiedzę np. do przemysłu.
Jest teza, są zaproponowane rozwiązania, i co dalej – czy takie roboty społeczne można wdrażać na większą skalę?
Podobne rozwiązania już są wdrażane komercyjnie. Niestety, z naszej perspektywy wciąż występuje bariera językowa, ponieważ bardzo dużo rozwiązań wykorzystujących duże modele językowe, jak Gemini czy ChatGPT, jest trenowanych na danych w języku angielskim – i w takiej wersji są sprzedawane. Na szczęście powstają już zaawansowane polskie modele językowe, np. Bielik, dzięki którym będzie nam łatwiej osadzić takiego robota w lokalnym kontekście.
A bezpieczeństwo danych użytkownika i bariery natury etycznej?
Integrując takie zewnętrzne rozwiązania, zgadzamy się, że nasze dane, czyli to co powiedzieliśmy, będą wykorzystywane do rozwijania wspomnianych modeli językowych. I oczywistym jest, że nie wszyscy muszą się na to godzić. Pewnym kompromisem są modele językowe typu white box, tworzone w technologii XAI („wyjaśnialna sztuczna inteligencja”). Pozwala ona zrozumieć nam logikę działania danego modelu, która doprowadziła do stworzenia tego konkretnego zdania, wypowiedzianego przez robota. Gdyby przyszłe roboty społeczne miały być homologowane zgodnie z nowymi wytycznymi UE dotyczącymi sztucznej inteligencji, ich logika działania powinna być przejrzysta, jasna i wytłumaczalna – szczególnie w przypadku interakcji z dziećmi.
Europa się starzeje, ale też atomizujemy się jako społeczeństwo. W przyszłości roboty społeczne wyjdą poza rolę pielęgniarki czy opiekuna i staną się towarzyszami w codzienności?
To realny scenariusz. W wielu ośrodkach pomocy społecznej w Niemczech takie roboty są obecne. Nie są to jeszcze zaawansowane systemy humanoidalne, w zasadzie pełnią bardzo podstawowe funkcje, np. przypominają o wzięciu leków czy o pewnej rutynie i harmonogramie dnia. Jednak skoro już teraz ludzie trenują swój model ChataGPT, aby był ich własnym terapeutą, to myślę, że nic nie stoi na przeszkodzie, aby w przyszłości – i to niedalekiej – roboty były zwykłym towarzyszem osoby samotnej i kompanem w rozmowach o wszystkim i o niczym.
A więc robot "prawem, a nie towarem”?
Bardzo możliwe (śmiech). Jeśli ta technologia będzie dalej rozwijać się tak dynamicznie, w pewnym momencie stanie się dobrem podstawowym, tak jak swojego czasu stał się nim dostęp do internetu czy osobisty smartfon.

*dr inż. Eryka Probierz, Politechnika Śląska w Gliwicach, Wydział Automatyki, Elektroniki i Informatyki, Katedra Automatyki i Robotyki.
W ramach 22. edycji Konkursu o Nagrodę ABB (2024/2025) otrzymała nagrodę główną za pracę pt. „Modelling social and emotional components in social robotics using robot artificial intelligence”.