4차 산업혁명의 시대를 맞이하여 여러 인공지능 기술이 출시되고 있다. 이러한 인공지능 기술이 효과적으로 사용되기 위해서는 사용자가 그것을 신뢰하는 것이 중요하다. 신뢰라는 개념은 대인관계에서 매우 중요한 요소 중 하나이며, 컴퓨터는 사회적 행위자라는 패러다임에 의하면 기술과 인간의 관계에도 적용될 수 있을 것이다. 본 연구에서는 대화를 통해 상호작용이 가능하여 기계가 아닌 교류의 대상으로 인식되기에 적합한 환경을 갖춘 대화형 에이전트를 중심으로 인간과의 상호작용에 대해 연구하였다. 연구에서는 신뢰의 중요한 선행요건인 친밀감 형성을 중심으로, 대인관계에서 친밀감을 형성하기 위한 전략으로 사용되는 자기노출과 잡담을 대화형 에이전트에 적용하였다. 또한 성격적으로 유사한 대상에 친밀감을 느끼게 되는 현상을 이용하여 의인화 전략을 대화형 에이전트에 적용하였다. 세 가지 전략을 적용한 에이전트에 대해 사용자들이 친밀감을 느끼는가, 이것이 신뢰에 영향을 미치는가를 알아보고자 하였고 이를 통해 대인관계의 사회적 전략이 에이전트와 인간의 관계에도 적용되는지 알아보고자 하였다. 또한 이들의 관계에 있어서도 친밀감이 신뢰의 선행요건이 되는지 밝히고자 하였다. 연구는 인공지능 스피커와 사용자가 대화하는 모습의 데모 영상을 피험자들에게 보여준 후 설문에 응답하도록 하는 방식으로 이루어졌다. 변인 간의 독립성을 확보하고 실험의 효율성을 증대시키기 위해 2x2x2의 혼합요인설계로 실험을 설계하였고 분석은 측정 변인의 타당성 검증, 조작화 검증, 가설 검증의 세 단계로 이루어졌다. 실험 결과, 잡담 전략은 친밀감 형성에 부정적인 영향을 미쳤고 자기노출과 의인화 전략은 긍정적인 영향을 미쳤다. 또한 세 개의 전략은 신뢰에는 직접적으로 영향을 미치지 않았지만, 친밀감은 신뢰에 영향을 미쳤기 때문에 친밀감이 신뢰를 매개함을 알 수 있었다. 본 연구의 결론은 다음과 같다. 첫째, 자기노출, 잡담, 의인화 전략은 사용자의 신뢰를 형성하는 데 직접적인 영향을 미치지 않는 것으로 나타났다. 이러한 전략들에 의해 먼저 친밀감이 형성된 이후 신뢰가 형성됨을 알 수 있었다. 즉, 불확실성이 감소되어야 신뢰가 형성될 수 있으며, 사용자들은 잘 모르는 에이전트에 대해 신뢰하지 않는 것이다. 본 연구를 통해 친밀감이 신뢰를 매개하는 현상은 사용자가 제공 받고자 하는 정보의 종류나 수행하려는 업무의 복잡도에 따라 달라질 수 있음을 알 수 있었다. 간단한 업무에 대해서는 친밀한 에이전트를 신뢰하지만 복잡하거나 난이도가 높은 업무에 있어서는 오히려 친밀한 에이전트보다 딱딱하고 형식적인 에이전트를 신뢰할 수 있다는 점을 발견하였다. 둘째, 대인관계에서 상대방의 마음을 얻기 위한 하나의 전략으로 사용되는 잡담은 대화형 에이전트에 대한 사용자의 친밀감 형성에 기여하지 않는 것으로 나타났다. 이는 대화형 에이전트에 대한 사용자의 인식에서 기인하는 것으로 보인다. 아직까지 사용자들은 대화를 나눌 수 있는 음성기기를 ‘컴패니언(Companion)’으로 인식하지 않고 ‘비서’의 개념으로 인지하고 있는 것을 알 수 있었다. 또한 잡담하는 에이전트에 대해 인간인 척 하는 것 같아 불편함을 느낀다는 의견이 존재하므로 언캐니 밸리(Uncanny valley) 현상이 외모 뿐만 아니라 발화에 있어서도 적용됨을 알 수 있었다. 그러나, 일부 긍정적인 의견도 존재하여 컴패니언으로 발전할 여지도 존재함을 알 수 있었다. 마지막으로, 사용자들은 자기노출하는 에이전트와 의인화된 에이전트에게 친밀감을 느끼는 것으로 나타났다. 그리고 이러한 특성이 사용자가 에이전트를 신뢰하게 되는 요소임을 알 수 있었다. 사용자들은 같은 수준의 자기노출을 대화 상대방에게 들었을 경우와 대화형 에이전트에게 들었을 경우에 대하여 각각 다른 수준으로 받아들이고 있음을 알 수 있었다. 이는 언급한 것처럼 사용자들이 인공지능 스피커에게 정서적 효용성 보다는 기능적 효용성에 더 큰 가치를 두기 때문일 것이다. 또한 잡담이나 자기노출 없이 의인화만 이루어진 에이전트에 대해서 기계적이라고 인식하는 경향이 높았다. 따라서 말투와 억양보다 중요한 것은 컨텐츠이며, 대인관계에서의 사회적 전략을 이용하는 것이 인공지능 스피커의 지속적인 사용을 유도하는 방법의 하나로 사용될 수 있다는 점을 도출하였다. 그러나 선행되어야 할 것은 대화형 에이전트와의 관계에 대한 인식의 개선일 것이다. 대화형 에이전트와 친밀감을 형성하고 이것이 신뢰로까지 연결되기 위해서는 일방적으로 업무를 지시하는 비서에서 더 나아가 대화의 상대로 인식할 수 있도록 할 필요가 있을 것이다. 본 연구에서는 대화형 에이전트에 사회적 전략을 적용하여 친밀감과 신뢰가 형성되는지에 대해 살펴보았다. 본 연구가 음성 기반의 인터페이스를 디자인함에 있어서 사용자와 긍정적인 상호작용을 위한 지침으로 사용되기를 기대한다.
With the advent of the fourth industrial revolution, a number of artificial intelligence technologies are being released. It is important for users to trust these artificial intelligence technologies in order to be used effectively. The concept of trust is one of the most important factors in interpersonal relationships, and could be applied to technology and human relationships in the paradigm of ‘Computers Are Social Actors’. This study has investigated interaction between human and conversational agents which interact through dialogue, so that it is suitable for recognition as an object of exchange, no as a machine. This study focused on intimacy-building, an important prerequisite for trust, and applied self-exposure and small talk to conversational agents, which were used as strategies to build intimacy in interpersonal relationships. In addition, the anthropomorphism strategy was applied to the conversational agents using the phenomenon of feeling intimacy with personally similar objects. The purpose of this study was to investigate whether the users feel intimacy about the agents applying the three strategies and whether they affect the trust. We also tried to find out whether intimacy is a prerequisite for trust in these relationships as in interpersonal relationships. The study was conducted by showing the subjects a video demo of an artificial intelligence speaker and a user talking before responding to the survey. In order to secure the independence between the variables and to increase the efficiency of the experiment, the experiment was designed with the 2x2x2 mixed factorial design. The analysis consisted of three steps: validation of the measurement variables, verification of manipulation, and verification of hypothesis. As a result of the experiment, the small talk strategy had a negative effect on the building of intimacy and the self-exposure and anthropomorphism strategy had a positive effect. In addition, the three strategies did not directly affect trust, but because intimacy affected trust, intimacy mediated trust. The conclusions of this study were as follows: First, self exposure, small talk and anthropomorphism strategies did not directly affect the user’s trust. By these strategies, we can see that trust is formed after intimacy is formed first. This means that trust can be formed only when the uncertainty is reduced, and users do not trust the unknown agent. Through this study, it can be seen that the phenomenon that intimacy mediates trust depends on the type of information that the user wants to receive and the complexity of the task to be performed. This study found that users trust close agents for simple tasks, but they can trust harder and more formal conversational agents than they do for complex or challenging tasks. Second, it was found that small talk, which is used as a strategy to gain the hearts of others in interpersonal relationships, did not contribute to the formation of user intimacy with conversational agents. This appears to be due to the user''s perception of the agents. So far, users have been able to recognize voice devices that can communicate with each other as ''personal assistant'' rather than ''companion''. Also, since there is an opinion that it feels uncomfortable because it seems to pretend to be a human being as a chatting agent, it can be seen that the Uncanny valley phenomenon applies not only to appearance but also to speech. However, there was also some positive opinion, so there was a possibility to develop as a companion. Finally, users were found to be familiar with agents that expose themselves and with agents that are personified. And we could see that these characteristics were factors that users would trust the agents. Users could see that they perceived the same level of self-exposure as different levels for the human conversational partner and for the conversational agent. This may be because, as mentioned, users put more value on functional utility than emotional utility on AI speakers. In addition, there was a tendency to perceive the agent with only anthropomorphism without small talk or self-exposure as mechanical device. Therefore, the thing which is more important than speech and intonation are contents, and it is derived that using social strategy in interpersonal relationship can be used as a way to induce continuous use of AI speaker. However, what should be preceded will be an improvement in awareness of the relationship with the conversational agent. To form intimacy with conversational agent and link it to trust, it will be necessary for conversational agent to be recognized as a dialogue partner further from the personal assistant who unilaterally directs the task. This study looked at whether social strategies were applied to conversational agents to create intimacy and trust. It is expected that this study is used as a guide to positive interactions with users in designing a voice-based interface.