Clear Sky Science · pl

Inteligentne generowanie bionicznych form obrazów produktów za pomocą multimodalnej, wagowej kwantyfikacji emocji

· Powrót do spisu

Dlaczego przyjaźniejsze roboty mają znaczenie

Wielu z nas zaczyna dzielić domy i miejsca pracy z głośnikami mówiącymi, chatbotami i prostymi robotami. Jednak te produkty często wydają się chłodne lub generyczne, bardziej jak narzędzia niż towarzysze. Badanie to analizuje, jak systematycznie projektować roboty, które wydają się bardziej przyjazne i emocjonalnie atrakcyjne, czerpiąc wizualne wskazówki z natury — w szczególności z powszechnie uznawanej za przyjazną rasy psa — przy jednoczesnym wykorzystaniu nowoczesnej sztucznej inteligencji, aby proces był kontrolowalny i oparty na rzeczywistych odczuciach użytkowników.

Figure 1
Figure 1.

Przekształcanie uczuć w wskazówki projektowe

Zamiast polegać wyłącznie na intuicji projektantów, badacze najpierw postanowili zmierzyć, jak ludzie emocjonalnie reagują na różne kształty i obrazy. Skupili się na problematycznym komercyjnym robocie towarzyszącym i zapytali użytkowników, jaki wygląd najbardziej by chcieli. Spośród wielu opisowych słów „przyjazny” wyłonił się jako najwyższy priorytet. Aby zrozumieć, jak „przyjazny” faktycznie wygląda, pokazano ludziom zdjęcia popularnych ras kotów i psów i poproszono, które zwierzę najlepiej odpowiada temu odczuciu. Wyraźnym zwycięzcą okazał się Samoyed — puszysty biały pies znany z okrągłej twarzy i uśmiechniętego wyrazu.

Odczytywanie oczu, twarzy i głosów

Następnie zespół zbudował szczegółowy eksperyment nazwany BI-MEC, który bada, jak ludzie reagują na obrazy na trzech poziomach jednocześnie: gdzie kierują wzrok, jak zmieniają się ich wyrazy twarzy i co mówią na głos. Uczestnicy oglądali zdjęcia samojedów w różnym wieku, podczas gdy śledzenie wzroku rejestrowało, na których częściach psa się koncentrują. Jednocześnie specjalistyczne oprogramowanie analizowało drobne zmiany w ich twarzach i tonie głosu, aby oszacować emocje takie jak radość, spokój, zainteresowanie czy znudzenie. Badacze następnie połączyli te sygnały ze słownikiem emocji opartym na psychologii, aby obliczyć pojedynczy „wynik emocjonalny” dla każdego obrazu, wskazujący, jak silnie i pozytywnie dany obraz oddziaływał na ludzi.

Destylacja „przyjaznego psa” do prostych linii

Porównując wyniki emocjonalne i mapy cieplne śledzenia wzroku, jeden obraz samojeda wyraźnie wyróżniał się jako najbardziej podnoszący na duchu. Najbardziej intensywne obszary na mapie cieplnej pokazały, że ludzie głównie skupiali wzrok na twarzy — szczególnie na oczach, pyszczku, uszach i otaczającej sierści — podczas gdy kształt tułowia był znacznie mniej istotny. Wykorzystując te informacje, zespół stworzył „grafik stymulujący obraz”: bardzo uproszczony rysunek konturowy, który zachował jedynie najważniejsze z emocjonalnego punktu widzenia cechy, takie jak duże oczy, stojące uszy i wystający język, wszystkie w proporcjach kojarzących się z przyjaznością. Kolejny test online potwierdził, że większość osób potrafiła prawidłowo dopasować ten sprowadzony rysunek do samojeda spośród wielu zdjęć psów, co pokazuje, że istotny sygnał „przyjaznego psa” został uchwycony.

Figure 2
Figure 2.

Pozwolenie AI na mieszanie psów i robotów

Majac uproszczony rysunek samojeda i odpowiadającą liniową wersję robota towarzyszącego, badacze zwrócili się do systemu AI o nazwie StyleGAN. To narzędzie świetnie radzi sobie z uczeniem, jak cechy wizualne można płynnie mieszać i morfować. Przeszkolili StyleGAN na rozszerzonych zestawach linii inspirowanych robotami i psami, a następnie użyli suwakopodobnej kontroli w wewnętrznej „przestrzeni latentnej” systemu, aby stopniowo mieszać oba style. W przeciwieństwie do innej testowanej metody AI (CycleGAN), która generowała zniekształcone i nieużyteczne kształty, StyleGAN wygenerował serię projektów, które stopniowo przesuwały się od czystego psa do czystego robota, zachowując przy tym czyste kontury i rozpoznawalne cechy.

Przyjaźniejsze formy, mierzalny wpływ

Z wyników StyleGAN zespół wybrał dwa pośrednie projekty, które wyglądały jednocześnie wyraźnie robotycznie i wyraźnie pod wpływem przyjaznej twarzy samojeda. Przekształcono je w dopracowane modele 3D i porównano z oryginalnym projektem produktu w testach użytkowników. Ludzie oceniali wszystkie trzy pod kątem przyjazności, ogólnej atrakcyjności i poczucia innowacji. Najlepszy nowy projekt osiągnął wynik przyjazności wyższy o około 22,6 procent niż oryginał, jednocześnie uzyskując lepsze oceny estetyki i oryginalności. W praktyce pokazuje to, że starannie zmierzone ludzkie emocje, sprowadzone do prostych wskazówek wizualnych, a następnie wzmocnione przez AI, mogą tworzyć formy produktów, do których ludzie czują większą więź — bez polegania wyłącznie na zgadywaniu czy podążaniu za modą.

Co to oznacza dla produktów codziennego użytku

Dla osób niebędących ekspertami główne przesłanie jest takie, że „twarz”, jaką produkt pokazuje światu, nie musi już pochodzić jedynie z intuicji projektanta. Śledząc, jak rzeczywiści użytkownicy patrzą, reagują i mówią, a następnie wprowadzając te sygnały do zaawansowanych narzędzi generowania obrazów, firmy mogą tworzyć urządzenia — od robotów po sprzęty domowe — które lepiej odpowiadają naszej potrzebie ciepła, bezpieczeństwa i więzi. Inspirowany psem robot towarzyszący z tego badania to tylko jeden przykład szerszej zmiany: projektów, które są jednocześnie emocjonalnie dostrojone do ludzkich uczuć i efektywnie generowane przy pomocy AI.

Cytowanie: Chen, X., Lin, L., Yang, M. et al. Intelligent generation of product bionic image forms via multimodal emotion-weighted quantification. Sci Rep 16, 6221 (2026). https://doi.org/10.1038/s41598-026-37257-9

Słowa kluczowe: roboty towarzyszące, projektowanie napędzane emocjami, produkty inspirowane naturą, kształty generowane przez AI, projektowanie zorientowane na użytkownika