KISDI 정보통신정책연구원

KISDI 정보통신정책연구원

검색 검색 메뉴

발간논문

생성형 AI(Generative AI) 이용과 이용자 프라이버시의 관계에 관한 연구: 대규모언어모델(LLM)을 중심으로

  • 저자오지현
  • 다운로드수373
  • 미리보기수207
  • 게재지디지털경제사회연구
  • 권호제1권 제1호 2023년
  • 페이지65-86
  • 발행일2023-08-31
  • 분류정보
  • 원문보기 PDF 미리보기(새창 열림) PDF 다운로드
태그(Tag) 생성형 AI LLM 프라이버시 역설 보호동기이론 지각된 심각성 지각된 취약성 지각된 유용성

요약

본 연구는 생성형 AI 이용자가 이를 활용하는 과정에서 생성형 AI와 프라이버시 사이의 관계를 어떻게 인식하고 있는지를 탐색하고자 했다. 구체적으로 이용자들의 LLM 이용 행태, LLM에 대해 지각된 심각성 및 취약성, 유용성과 프라이버시 역설을 중심으로 LLM 이용과 관련된 프라이버시 관점을 조사하였다. 연구 결과는 다음과 같다. 첫째, 이용자들은 각 LLM의 강점을 최대한 활용하기 위해 복수의 LLM을 사용하는 경향을 보였다. 둘째, 이용자들은 프라이버시 침해의 심각성을 높게 인식하며, 이러한 심각성의 지각은 실제적인 프라이버시 보호 행동에 영향을 미칠 가능성이 큰 것으로 나타났다. 셋째, 이용자들은 지각된 취약성의 측면에서 프라이버시 침해에 대한 감정적 대응을 보였다. 넷째, 이용자들은 프라이버시 보호와 LLM의 유용한 기능 사이에서 역설적인 상황을 경험하며, 프라이버시를 보호하면서도 LLM의 혜택을 얻고자 하는 역설 현상이 발견되었다. 이상의 연구결과가 생성형 AI와 관련된 프라이버시 보호 정책 마련에 대해 시사하는 함의점에 대해 논의되었다.

목차

This study aimed to explore how users of generative AI perceive the relationship between generative AI and privacy during their utilization of such technology. Specifically, we investigated users' behaviors when using Large Language Models (LLMs), their perceptions of severity and vulnerability related to LLMs, as well as the paradox of privacy concerning the use of LLMs. The research yielded the following results. Firstly, users demonstrated a tendency to utilize multiple LLMs to maximize the strengths of each model.
Secondly, users perceived a high level of seriousness regarding privacy breaches, and this perception was found to significantly influence actual privacy protection behaviors. Thirdly, users exhibited emotional responses to privacy breaches, particularly in terms of perceived vulnerability. Lastly, users experienced a paradoxical situation wherein they aimed to protect their privacy while seeking the benefits of LLMs. This paradoxical behavior sheds light on implications for privacy protection policies related to generative AI.
대표저자의 다른 논문

해당 저자의 보고서 중 최근 5건이 표시됩니다.

동일 주제별 연구자료

해당 보고서와 동일한 주제를 가진 최근 5건의 자료를 제공합니다.