KISDI 정보통신정책연구원

KISDI 정보통신정책연구원

검색 검색 메뉴

전문가 칼럼

조성은

생성형 인공지능과 탈진실(post-truth) 사회의 새로운 도전과제

  • 작성자조성은  연구위원
  • 소속디지털경제사회연구단 지능정보사회정책연구실
  • 등록일 2024.03.27

리 매킨타이어(2019)는 2016년 미국 대선 이후 소셜미디어를 통한 정보 유통이 사람들에게 사실에 근거한 정보보다 감정에 호소하는 의견을 더 진실로 받아들이는 탈진실(post-truth) 현상을 강화하였다고 진단하였다. 이러한 현상은 여론을 왜곡하고 궁극적으로 민주주의를 훼손할 것이라는 우려로 이어졌으며, 최근까지 이를 바로잡기 위해 활발한 사회 논의와 인식 제고, 사업자의 자율규제와 규제당국의 법제도 마련 등의 노력이 계속되고 있다. 이 와중에 생성형 인공지능 등장은 새로운 도전 이슈를 더한다. 소셜미디어를 통한 정보 유통과 생성형 인공지능으로 만든 그럴듯한 정보가 우리 사회에 던지는 새로운 도전과제를 짚어보자.

소셜미디어가 처음 등장하였을 때 사람들은 주로 지인들과의 온라인 연결에 활용하거나 새로운 온라인 관계 형성에 주로 사용하였다가, 점차 정보 채널로 활용 용도를 전환해 왔다. 그 결과 정보 채널이지만 친분이나 관심사가 비슷한 이들과 관계를 형성한 상태에서 정보가 유통되는 구조가 되었다. 

다른 특징은 선별된 정보만 접하는 환경이다. 소셜미디어에서 친구나 팔로잉 관계라도 그들 간의 모든 정보가 서로 공유되지 않는다. 페이스북의 경우를 대표 사례로 살펴보면1), 최근의 팔로우, 좋아요, 상호작용 등으로 뉴스피드에 노출할 콘텐츠 순위를 정한다. 실제로는 훨씬 많은 요소를 고려하고 계산하는 머신러닝 모델도 다양할 것이다. 이용자가 보지 못하고 지나친 게시물을 한 번 더 볼 기회를 주는 ‘범핑(bumping) 로직’도 적용한다고 한다. 게시물의 유형, 다른 항목과의 유사성, 이용자가 상호작용하는 방식 등 다양한 요인들을 고려하여 점수를 매기고, 신뢰성과 유해성을 확인하는 탐지 절차까지 거쳐 1,000개 게시물을 500개로 추린 후에는 더욱 강력한 신경망 모델로 다시 점수 매기는 단계를 거친다. 

만약 사용자가 자신이 접하는 뉴스피드 정보가 자신의 취향과 행동 패턴에 근거한 복잡한 선별 과정을 거친다는 것을 미처 인지하지 못한다면 어떨까? 필터버블(filter bubble) 현상2)에 갇힐 수 있다. 맞춤형 정보에만 노출되고 있다는 것을 인지하지 못한 상태에서 의도하지 않게 편향된 정보를 접하는 셈이다. 필터버블 현상은 이용자의 의도에 따라 더 강화되기도 한다. 소셜미디어에 기대어 자신의 신념에 일치하는 정보만을 찾아보거나 집중하여 자신의 신념만을 강화하고 사고의 폭을 좁히는 반향실 효과(echo chamber effect)에 갇히는 것이다. 

이러한 문제를 해소하기 위해 세계 각국은 서비스 제공자가 어떤 방식으로 이용자에게 콘텐츠가 노출되는지에 대한 설명을 투명하게 제공할 것을 권고하거나 법적 의무화를 추진하였다. 예를 들어, 유럽연합의 디지털 서비스법은 대형 온라인 플랫폼 기업 등에 투명성 의무를 요구한다. 실제로 앞서 소개한 페이스북 경우를 비롯하여 세계 각국의 규범에 영향을 받는 글로벌 빅테크 기업들은 서비스의 작동 원리에 대한 일정 설명을 제공하고 있다. 

그런데 지난 수년간의 노력이 사회규범이나 제도로 자리 잡아 가기 시작한 시점에서, 새롭게 등장한 생성형 인공지능은 정보 노출과 유통의 이슈를 콘텐츠 생성 이슈로 확대하여 다시 새로운 사회문제이자 도전과제가 되었다. 생성형 인공지능 덕분에 실제로 사진을 찍거나 영상 촬영을 안 해도 원하는 이미지나 내용의 콘텐츠를 생성하고, 이를 이용해서 감정에 호소하던 ‘의견’에 그럴듯한 증거 이미지도 갖출 수 있게 된 것이다. 이제 인공지능이 만든 그럴듯한 콘텐츠가 소셜미디어로 유포되었을 때의 파급효과를 생각하지 않을 수 없다. 실례로 2023년 5월 미국 펜타곤 폭발 사진이 소셜미디어에 올라오고 곧 삭제하였는데도 일시적 주가 하락을 가져올 만큼 파급력이 컸다. 그러한 파급력이 선거에서 영향을 미친다면 민주주의 제도 자체가 신뢰를 잃고 무너질 수도 있다는 우려가 있을 만하다. 

이와 관련하여, 세계 각국은 대응 방안을 모색하고 있다. 지난 2월 독일 뮌헨안보회의(MSC)에서 20개 글로벌 빅테크 기업들이 공동으로 인공지능 기술을 악용해 선거에 영향을 끼치는 행위에 공동 대응하기로 합의했다. 유럽연합은 선거와 관련한 허위 정보에 제대로 대응하지 않는 대형 온라인 플랫폼에 막대한 과징금을 부과할 예정이다. 세계경제포럼도 최근 디지털 신뢰를 확보하고 유지하기 위해 서비스가 투명성(transparency), 개인정보보호(privacy), 시정 가능성(redressability) 등을 보장해야 한다고 권고하였다. 우리나라도 딥페이크 허위정보 대응 관련 자율규제 강화를 위한 민관협력 회의를 개최하고 인공지능(AI) 생성물 표시, 탐지 모니터링, 삭제·차단 조치 등과 관련된 자율규제 현황과 강화 방안을 구체적으로 논의하고 있다. 

이제 남은 과제는 관련 규범의 표준을 개발하고 실질적인 실천 단계로 넘어가는 것이다. 먼저 주요 기업이 자발적으로 제시한 정책과 기준을 분석하고 공통 분모를 찾아내고 간과된 맹점을 파악하여 표준 규약을 만들어 배포할 필요가 있다. 생성형 인공지능 생태계에는 자체 정책연구와 수립을 할 수 있는 빅테크 기업뿐만 아니라 그렇지 못한 여러 수준의 중소기업·스타트업도 있기에, 권위가 부여된 정부 기관에서 이들이 참고하고 실천할 표준을 마련해 활용하게 하는 것이다. 

여기에 이용자의 이용 역량도 요구된다. 생성형 인공지능 기반 서비스 기업들은 현재 생성형 인공지능 기술의 한계로 인해 발생가능한 문제들에 대해 ‘고지’ 형식으로 이용자에게 알리고 있다. 예를 들어, 챗GPT를 사용할 때 다음의 문구를 볼 수 있을 것이다. “ChatGPT는 실수를 할 수 있습니다. 중요한 정보는 확인해 주세요.” 인물사진 업로드를 제한하기도 한다. “얼굴이 포함된 이미지는 사용할 수 없습니다.” 하이퍼클로바X는 개인정보와 저작권에 대한 주의를 고지한다. “개인정보가 포함된 문서나 저작권자의 허락이 없는 저작물을 업로드하지 말아주세요” 부적절한 단어를 포함한 명령어를 입력하였을 때는 콘텐츠 생성이 거부되기도 한다. “이 프롬프트를 처리할 수 없습니다. 프롬프트를 편집하고 다시 시도하십시오.” 이러한 고지들은 이용자들이 생성형 인공지능을 사용할 때 주의해야 할 점을 상기시킨다는 점에서 긍정적이다. 이용자들이 이 상황을 충분히 인지하였을 때 그 효과는 더 클 것이다. 

그러나 이미 생성된 콘텐츠를 접했을 때 필요한 역량은 또 다른 문제이다. 인공지능이 생성한 콘텐츠는 ‘사실’이 아닐 확률이 높다. 사업자가 자체 지침이나 법제도에 따라 해당 콘텐츠가 인공지능이 생성한 콘텐츠임을 알리는 조치를 하였을 때 이용자는 그 정보를 이용하여 합리적인 판단을 할 수 있어야 한다. 이를 위해 이용자는 자신의 신념과 일치한다고 동조하는 데 앞서기 전에 객관적이고 비판적인 수용 태도를 갖추도록 자신을 훈련할 필요가 있다. 여기서도 정부의 역할이 있는데, 누구나 교육·훈련의 기회를 얻을 수 있게 지원해야 한다. 

새로운 기술이 등장하여 아직 사회적으로 합의된 규범이 정립되지 않은 상태에서 생성형 인공지능을 둘러싼 이해관계자들이 각자의 위치에서 할 수 있는 노력을 해야 하는 시점이다. 지금을 살고 있는 우리가 반대되는 의견을 더 이상 수용하지 못하고 조작된 정보를 진실인 양 스스로를 호도하며 신뢰할 수 없는 사회를 만드는 데 동참하지 않기를 바란다. 정부와 서비스 기업도 각자의 위치에서 해야할 일을 하길 바란다.   


1) 아스코 라다, 메이홍 왕, & 탁 얀(2021.1.26.). “뉴스피드는 이용자가 원하는 콘텐츠를 어떻게 예측할까요?” https://about.fb.com/ko/news/ 
2) '필터 버블(filter bubble)’은 서비스 제공자가 이용자 맞춤형 정보만 제공한 결과, 이용자는 정제된(필터링된) 정보만 접하게 되는 현상

  • 부서대외협력팀
  • 담당자신보람
  • 연락처043-531-4403