요약
본 연구는 생성형 AI 이용자가 이를 활용하는 과정에서 생성형 AI와 프라이버시 사이의 관계를 어떻게 인식하고 있는지를 탐색하고자 했다. 구체적으로 이용자들의 LLM 이용 행태, LLM에 대해 지각된 심각성 및 취약성, 유용성과 프라이버시 역설을 중심으로 LLM 이용과 관련된 프라이버시 관점을 조사하였다. 연구 결과는 다음과 같다. 첫째, 이용자들은 각 LLM의 강점을 최대한 활용하기 위해 복수의 LLM을 사용하는 경향을 보였다. 둘째, 이용자들은 프라이버시 침해의 심각성을 높게 인식하며, 이러한 심각성의 지각은 실제적인 프라이버시 보호 행동에 영향을 미칠 가능성이 큰 것으로 나타났다. 셋째, 이용자들은 지각된 취약성의 측면에서 프라이버시 침해에 대한 감정적 대응을 보였다. 넷째, 이용자들은 프라이버시 보호와 LLM의 유용한 기능 사이에서 역설적인 상황을 경험하며, 프라이버시를 보호하면서도 LLM의 혜택을 얻고자 하는 역설 현상이 발견되었다. 이상의 연구결과가 생성형 AI와 관련된 프라이버시 보호 정책 마련에 대해 시사하는 함의점에 대해 논의되었다.목차
This study aimed to explore how users of generative AI perceive the relationship between generative AI and privacy during their utilization of such technology. Specifically, we investigated users' behaviors when using Large Language Models (LLMs), their perceptions of severity and vulnerability related to LLMs, as well as the paradox of privacy concerning the use of LLMs. The research yielded the following results. Firstly, users demonstrated a tendency to utilize multiple LLMs to maximize the strengths of each model.Secondly, users perceived a high level of seriousness regarding privacy breaches, and this perception was found to significantly influence actual privacy protection behaviors. Thirdly, users exhibited emotional responses to privacy breaches, particularly in terms of perceived vulnerability. Lastly, users experienced a paradoxical situation wherein they aimed to protect their privacy while seeking the benefits of LLMs. This paradoxical behavior sheds light on implications for privacy protection policies related to generative AI.