소셜 로봇에겐 인간과 공존하는 컴패니언으로서의 역할이 있으며, 로봇의 사회성은 인간의 사회성과는 달리, 인간의 니즈와 의도로 만들어진다. 본 연구의 목적은 소셜 로봇의, 로봇으로서의 사회성이 어떤 경향으로 진화될 것인지 구체적인 사례들을 분석하고 제안하는 것이다. 분석 대상은 1993년부터 2018년 6월까지 발표된 소셜로봇들 중 가정에서 사용되면서도 사용자와 꾸준히 커뮤니케이션하는 로봇들로 선정하였다. 그리고 분석을 위해 선행 연구자들의 의인화 프레임을 분석, 정리하여 분석 프레임으로 정의하고, 69개의 소셜 로봇 사례를 이의인화 프레임으로 분석하였다. 분석 결과를 정리하면 다음과 같다. 1) 로봇의 역할 및 관계 설정: 1990년대초반 교감, 소통 목적의 로봇이 등장했고 2010년대에는 학습, 집사, 물리적 생활 보조, 운전자 보조, 건강 관리 등 생활을 보조하는 로봇이 나타났다. 사용자, 공간, 사용 맥락이 세분화되면서 로봇의 역할도 다양하게 진화 중이며, 이에 따라 로봇은 사람 뿐 아니라 로봇, 기기와도 소통하고 있다. 2) 외형적 요소: 형태는 얼굴 부위(눈썹, 눈 코, 입, 귀)와 몸 부위(팔, 다리)로 구분되며, 각 부위는 감정 표현, 시선, 대화, 제스처, 접촉 등 행위적 요소와 결부되어 발전 중이다. 3) 행위적 요소(언어적 상호작용, 비언어적 상호작용): 인공지능과 음성인식의 정확도가 높아지고 IoT, 클라우드 기술이 발전하면서 언어적 상호작용 경향은 강화될 것으로 보인다. 그리고 비언어적 상호작용은 표정, 시선, 몸짓에 사례가 집중되어 있지만, 로봇이 일상으로 들어오게 되면서, 신체접촉 인터렉션도 증가할 것으로 예상된다. 4) 인공적 요소: 의복 외에도 로봇을 위한 좌석, 공, 목걸이 등 다양한 물건들이 고안되고 있고, 이를 판매하는 쇼핑몰도 나타나고 있다. 5) 생체신호적 요소(심장박동, 호흡, 눈 깜빡임, 체온, 무조건 반사): 눈 깜빡임을 제외한 나머지 신체 신호 요소들의 적용 빈도는 현저히 낮았으나, 생체신호는 로봇의 즉각적인 상태를 보여주고 살아있는 대상으로 느껴지게 하며 재치 있는 반응을 할 수 있는 가능성을 열어두는 효과가 있다.
The social robot has a role as a companion coexisting with humans, and its sociality is determined by human needs and intentions. The purpose of this study is to analyze the specific cases of social robot and to suggest how sociality of robot would evolve. For the analysis, 69 social robots released from 1993 to 2018 were collected, and they were analyzed based on anthropomorphic frames: appearance, behavior, artifact and biological signal. The analysis result is as follows. 1) Robot''s Role and Relationship: In the early 1990s, robots for sympathy and communication emerged and in 2010s, robots that assisted living such as learning, butler, physical aid, driver assistance, and health care appeared. The role of robots is evolving in various ways, with various changes in user, space, and usage context. 2) Appearance Factor: The body of the robot is divided into face parts(eyebrows, eyes, nose, mouth, ears) and body parts(arms, legs). Each part is developed in conjunction with emotional expression, gaze, conversation, gesture, touch, and other behavioral factors. 3) Behavioral Factor(verbal interaction, nonverbal interaction): As the accuracy of artificial intelligence and speech recognition increases, and as IOT and cloud technologies evolve, verbal interaction tendency will increase. At present, nonverbal interactions are found only in terms of facial expressions, gaze and gestures, but it is expected that physical touch interaction will increase as robots come into humans'' daily lives. 4) Artifact Factor: Various objects such as clothes, seats, balls, and necklaces are designed for robots, and shopping malls selling them are also appearing. 5) Biological Signal Factor(heartbeat, respiration, eye blink, body temperature, unconditional reflex): Except for eye blinking, the frequencies of the remaining elements were significantly lower, however the bio-signals show the immediate state of the robot, makes it feel like a living object, and opens the possibility of a sensible reaction.