Clear Sky Science · es
Generación inteligente de formas biónicas de producto mediante cuantificación multimodal ponderada por emoción
Por qué importan los robots más amigables
Muchos de nosotros empezamos a compartir nuestros hogares y lugares de trabajo con altavoces que hablan, chatbots y robots sencillos. Sin embargo, estos productos a menudo se sienten fríos o genéricos, más como herramientas que como compañeros. Este estudio explora cómo diseñar sistemáticamente robots que resulten más amigables y emocionalmente atractivos tomando señales visuales de la naturaleza —específicamente, de una raza de perro famosa por su simpatía— mientras se emplea la inteligencia artificial moderna para mantener el proceso controlable y anclado en las emociones reales de los usuarios.

Convertir los sentimientos en pistas de diseño
En lugar de pedir a los diseñadores que se basen solo en la intuición, los investigadores empezaron por medir cómo responden emocionalmente las personas a distintas formas e imágenes. Se centraron en un robot compañero comercial con dificultades y preguntaron a los usuarios qué aspecto preferirían. De muchas palabras descriptivas, “amistoso” emergió como la prioridad principal. Para entender cómo se manifiesta realmente “amistoso”, mostraron a la gente imágenes de razas populares de gatos y perros y les pidieron cuál animal representaba mejor esa sensación. El ganador claro fue el samoyedo, un perro blanco y esponjoso conocido por su rostro redondeado y su expresión sonriente.
Leer ojos, rostros y voces
A continuación, el equipo diseñó un experimento detallado que llaman BI-MEC, que analiza cómo reaccionan las personas ante imágenes en tres niveles simultáneos: hacia dónde se mueven los ojos, cómo cambian sus expresiones faciales y qué dicen en voz alta. Los participantes vieron fotografías de samoyedos a distintas edades mientras un rastreador ocular registraba en qué partes del perro se fijaban. Al mismo tiempo, software especializado analizó pequeños cambios en sus rostros y en el tono de sus voces para estimar emociones como alegría, calma, interés o aburrimiento. Los investigadores combinaron estas señales con un diccionario de emociones basado en la psicología para calcular una “puntuación emocional” única por imagen, que indica cuán intensa y positiva fue la sensación que produjo.
Destilar un “perro amigable” en líneas simples
Comparando las puntuaciones emocionales y los mapas de calor del seguimiento ocular, una imagen de samoyedo destacó claramente como la más evocadora. Las zonas más calientes del mapa de calor mostraron que la gente miraba principalmente la cara—especialmente los ojos, la boca, las orejas y el pelaje circundante—mientras que la forma del cuerpo importaba mucho menos. Con esta información, el equipo creó un “gráfico estímulo de imagen”: un dibujo lineal muy simplificado que preservaba solo las características emocionalmente más importantes, como ojos grandes, orejas erguidas y una lengua, todo en proporciones que resultaban amigables. Una prueba en línea posterior confirmó que la mayoría de las personas podía relacionar correctamente ese dibujo depurado con un samoyedo entre muchas fotos de perros, lo que demuestra que se había captado la señal esencial del “perro amigable”.

Permitir que la IA mezcle perros y robots
Con un dibujo simplificado del samoyedo y una versión lineal correspondiente del robot compañero, los investigadores recurrieron a un sistema de IA llamado StyleGAN. Esta herramienta es excelente aprendiendo cómo las características visuales pueden mezclarse y transformarse de forma suave. Entrenaron a StyleGAN con conjuntos ampliados de imágenes lineales inspiradas en robots y perros y luego utilizaron un control tipo deslizador en el “espacio latente” interno del sistema para mezclar entre ambos. A diferencia de otro método de IA que probaron (CycleGAN), que producía formas distorsionadas e inutilizables, StyleGAN generó una serie de diseños que cambiaban gradualmente de perro puro a robot puro manteniendo contornos limpios y rasgos reconocibles.
Formas más amigables, impacto medible
A partir de los resultados de StyleGAN, el equipo seleccionó dos diseños intermedios que parecían claramente robóticos y claramente influenciados por el rostro amigable del samoyedo. Estos se convirtieron en modelos 3D pulidos y se compararon con el diseño de producto original en pruebas con usuarios. Las personas evaluaron los tres en términos de amabilidad, belleza general y sensación de innovación. El mejor diseño nuevo obtuvo una puntuación de amabilidad aproximadamente un 22,6 por ciento superior a la del original, y también obtuvo mejores resultados en estética y originalidad. En términos prácticos, esto demuestra que las emociones humanas medidas cuidadosamente, destiladas en pistas visuales simples y luego amplificadas por la IA, pueden producir formas de producto con las que la gente se siente más cercana—sin dejar todo al azar o a la búsqueda de tendencias.
Qué significa esto para los productos cotidianos
Para quienes no son expertos, el mensaje principal es que la “cara” que muestra un producto al mundo ya no tiene por qué venir solo del presentimiento de un diseñador. Siguiendo cómo los usuarios reales miran, reaccionan y hablan, y alimentando esas señales en herramientas avanzadas de generación de imágenes, las empresas pueden crear dispositivos—desde robots hasta electrodomésticos—que respondan mejor a nuestro deseo de calidez, seguridad y conexión. El robot compañero inspirado en un perro de este estudio es solo un ejemplo de un cambio más amplio: diseños que están tanto sintonizados con las emociones humanas como generados con eficiencia gracias a la IA.
Cita: Chen, X., Lin, L., Yang, M. et al. Intelligent generation of product bionic image forms via multimodal emotion-weighted quantification. Sci Rep 16, 6221 (2026). https://doi.org/10.1038/s41598-026-37257-9
Palabras clave: robots compañeros, diseño impulsado por la emoción, productos bioinspirados, formas generadas por IA, diseño centrado en el usuario