KISDI 정보통신정책연구원

KISDI 정보통신정책연구원

검색 검색 메뉴

전문가 칼럼

문정욱

초거대 인공지능 시대, AI 윤리와 과제

  • 작성자문정욱  센터장
  • 소속지능정보사회정책센터
  • 등록일 2023.07.03

전 세계적으로 초거대 ·생성형 인공지능이 촉발한 윤리적 ·사회적 이슈가 확산되는 한편
인공지능 산업진흥과 규제가 혼란스럽게 공존하는 상황에서 인공지능이
경제·사회에 미치는 긍정적 영향을 극대화하고 부정적 영향을 최소화하기 위해서는
양자 간의 적절한 균형점 모색이 필요한 시점이다.

I. Al의 사회적 확산과 윤리적 이슈

디지털 전환 시대의 주 원동력으로 간주되는 인공지능은 디지털 전환을 넘어 디지털 심화 과정에서 발생하는 사회 패러다임의 전환에 있어 가장 영향력 있는 첨단 디지털 기술로 인식되고 있으며, 특히 인공지능으로 인한 사회적 혜택이 사회적 위험보다 많을 것으로 전망되고 있어 시장에서의 기대가 매우 높다(Forbes, 2019). 그러나 한편으로는 인공지능 기술이 우리 실생활에 확산되고 적용되기 시작하면서 고용, 금융, 교육, 미디어, 보건복지 등 다양한 분야에 서 그간 경험하지 못했던 기술의 오남용, 데이터와 알고리즘의 편향과 차별, 프라이버시 침해 등 새로운 사회적 위험과 윤리적 이슈가 발생하고 있다. 예컨대, 인공지능 기반 채용시스템에서는 데이터 편향, 판단기준의 불투명성, 기술적 오류 가능성, 결과의 불분명성 등의 이슈가 제기되기도 하였다. 또한 2021년 초 크게 사회적 이슈가 되었던 인공지능 기반 챗봇 서비스에서는 개인정보 오남용, 편향된 데이터 학습에 따른 산출, 악의적 이용자 개입 등의 문제가 발생하기도 하였다.

  이렇게 인공지능의 윤리적 활용에 대한 사회적 논의가 지속되는 중에 최근 전 세계적으로 화두가 되는 챗GPT의 확산은 인공지능 윤리와 신뢰적 측면에서 기존의 논의에 더해 보다 다양하고 복잡한 윤리적 이슈를 야기할 것으로 예상되고 있다. 챗GPT는 Open AI사가 초거대·생성형 모델인 GPT(Generative Pre-trained Transformer)를 기반으로 개발한 대화형 인공지능 챗봇으로 기존 챗봇과는 달리 사용자와의 대화를 기억하고 상호 맥락을 파악할 뿐만 아니라, 긴 내용의 문서를 요약하고, 새로운 글, 이미지, 컴퓨터 코드 등을 생성하는 등 사용자의 필요에 따라 다양하게 활용할 수 있다는 점에서 그 성능과 효용이 크게 개선되었다. 이에 국내외 빅테크 기업들은 자체적으로 초거대·생성형 인공지능 모델을 개발하거나 챗GPT를 활용하여 기업 고유의 특정 서비스 개발 및 배포에 심혈을 기울이고 있다. 일례로 마이크로소프트는 자사 검색엔진 ‘Bing’에 챗GPT를 도입하였으며, 구글은 자사 언어모델을 활용한 인공지능 챗봇 서비스인 ‘Bard’를 공개하였고, 중국에서도 바이두가 ‘Ernie Bot’을 출시하였다. 국내에서도 네이버, 카카오, LG, SKT, KT 등 굴지의 기업들이 자체적으로 초거대·생성형 인공지능 모델을 개발하여 관련 서비스를 예고하고 있다.

  그러나 이러한 초거대·생성형 인공지능 모델은 기존의 인공지능 윤리 이슈에 더하여 가짜정보 생성, 저작권 침해, 표절, 악의적 이용, 환경 파괴, 편향 강화 등의 보다 복잡한 양상의 윤리적 쟁점을 발생시킬 가능성이 있다. 이에 인공지능 분야의 많은 학자들이 초거대·생성형 AI의 잠재적 위험을 지적하며 심각한 우려를 표하고, 국제적으로 활동하는 비영리단체들도 공개 성명서 등을 통해 인공지능 기술 개발 방향에 대한 사회적 합의가 있을 때까지 일정 기간 동안 초거대·생성형 인공지능의 개발을 중지할 것으로 촉구하기도 하였다. 반면 다른 한편에서는 초거대·생성형 인공지능의 위험성이 존재하지만 전면적인 개발 중단이 아닌 합리적이고 실효성 있는 규제책 마련을 통해 이러한 위험을 예방하거나 완화할 필요가 있음을 강조하고 있다. 즉 인공지능의 잠재적 위험성에는 동의하지만 그렇다고 전면적인 개발을 중단하는 것이 아니라 오히려 통제 가능하고 안전하고 윤리적이며 신뢰할 수 있는 인공지능을 개발하고 활용할 수 있는 기반을 조성하고 이에 걸맞은 규제와 규율방식을 모색하자는 것이다.

  인공지능과 같은 신기술의 급격한 발전과 사회적 확산이 야기하는 사회 변화에 제 ·개정이 경직된 법 규범적 접근을 통한 대응에는 일정 부문 한계가 있다. 또한 인공지능에 대한 과도한 규제는 관련 산업 분야의 발전을 저해할 가능성이 있고 이는 곧 국가의 글로벌 경쟁력 약화의 요인으로 작동할 수도 있다. 따라서 시시각각 진화하는 인공지능 기술과 그에 따른 사회·기술적 환경변화에 기민하게 대응하고 더 나아가서 윤리적이고 안전한 인공지능의 개발과 활용을 장려하고 지원하기 위해서는 우선은 자율규제 체계로서의 인공지능 윤리와 신뢰성을 강화할 필요가 있다. 다음에서는 이러한 인공지능 윤리 확산을 위한 그간의 정책 차원에서의 노력에 대해 살펴보겠다.

II. Al 윤리 확산을 위한 그간의 노력

인공지능이 야기하는 윤리적 이슈와 잠재적 위험에 대응하기 위해 세계 주요국과 국제기구들은 인공지능 산업 진홍과 더불어 윤리적인 인공지능 실현을 위한 정책을 수립하여 추진하고 있다. 이러한 인공지능 정책 방향은 크게는 세 가지 정책 수단으로 정리할 수 있는데 첫째, 인공지능 기술 개발 및 산업 발전에 저해가 예상되는 규제를 발굴하여 선제적으로 개선하는 것이고, 둘째, 기술사회 환경변화에 따른 기존 사회정책의 조정 및 신규 제도 마련, 셋째, 인공지능 윤리 대응을 위한 거버넌스를 구축하고 윤리 원칙과 실천 수단을 개발하고 보급하는 것이다.

  그중에서 윤리적 정책 수단을 살펴보면 다음과 같다. OECD는 인공지능 권고안(Recommendation of the Council on AI) 을 통해 인공지능의 활용은 극대화하고 위험을 최소화하기 위한 원칙으로 포용적 성장, 인간 중심의 가치와 공정성, 투명성·설명가능성, 견고성·보안·안전, 책임성 등을 제시하였다. EU는 신뢰할 수 있는 인공지능 가이드라인 (Ethics Guideline for Trustworthy AI)을 발표하며 합법적이고 윤리적이며 견고한 인공지능을 위해 인간의 자율성 존중, 위해 방지, 공정성, 설명가능성을 포함한 4대 윤리 원칙과 인간의 감독, 기술적 견고성, 프라이버시와 데이터 거버넌스, 투명성, 다양성과 비차별성, 사회적 및 환경적 안녕, 책임성 등의 7대 핵심 요건을 강조하고 이를 자율적으로 점검 할 수 있는 평가 목록을 제시하였다. UNESCO는 인공지능 윤리 권고(Ethics of AI)를 통해 인공지능은 인권과 인간 존엄성을 존중해야 하며 환경 및 생태계 번영과 다양성 및 포용성을 보장해야 함을 명시하고 이를 위해 공정성 및 비 차별성, 프라이버시 보호, 인간의 감독 및 결정, 인공지능 리터러시 강화 등을 포함한 10대 원칙을 발표하였다. 또한 인공지능의 윤리적 가치와 원칙 구현의 실효성 담보를 위해 회원국에 11대 정책 행동을 권고하였다. 미국은 인공지능의 잠재적 위험이 시민권과 민주주의 가치를 침해하지 않도록 인공지능 권리장전(AI Bill of Rights)을 발표하였다. 권리장전은 안전한 시스템 구축, 차별 방지, 프라이버시 보호, 고지 및 설명 의무 문제가 발생하는 경우 인간의 개입 등의 기본 원칙을 강조하고 있다.

이러한 글로벌 배경하에서 우리나라도 범국가 차원의 ‘사람이 중심이 되는 인공지능 윤리기준’('20. 12)을 발표하였다. 본 윤리기준은 인간성을 위한 인공지능을 최상위 가치로 하여 인간 존엄성, 사회의 공공선, 기술의 합목적성을 3대 원칙으로 제시하고 이를 구현하기 위한 10대 핵심 요건으로 ①인권 보장, ②프라이버시 보호, ③다양성 존중, ④침해금지, ⑤공공성, ⑥연대성, ⑦데이터 관리, ⑧책임성, ⑨안전성, ⑩투명성을 강조하였다. 이후 ‘신뢰할 수 있는 인공지능 실현 전략('21,5.)을 통해 인공지능 윤리의 실천을 위한 보다 구체적인 정책을 추진하고 ‘인공지능 일상화 및 산업 고도화 계획('23.1.)을 발표하면서 디지털 심화기의 새롭게 규정되는 디지털 신질서 정립의 일환으로 인공지능 윤리 ·신뢰성의 중요성을 재차 강조하였다. 최근에는 ‘초거대AI 경쟁력 강화 방안('23.4.)을 수립하여 전 세계적으로 확산되고 있는 초거대·생성형 AI의 사회문화적 영향을 파악하고 이에 대응할 수 있는 전략과 추진과제를 제시하였다.

  이러한 전략과 과제를 구체화하기 위해 인공지능 윤리의 실천 수단으로서 인공지능 개발 및 활용 과정에서 인공지능 윤리기준 준수 여부를 스스로 점검할 수 있는 자율 점검표, 개발자를 대상으로 하는 인공지능 신뢰성 확보를 위한 개발안내서, 인공지능 윤리교육 콘텐츠 개발 기준 및 교재 개발 등을 통해 기발표한 인공지능 윤리기준이 선언적 담론에 멈추지 않고 실제 사회 전반에 확산되고 체화되기 위한 정책적 노력을 기울이고 있다.

Ill. Al 윤리 정착을 위한 정책 방향

초거대·생성형 인공지능 기술이 발전하고 그에 따른 다양한 서비스가 일상화됨에 따라 새롭게 제기되는 인공지능 윤리적 이슈에 적절히 대응하기 위해서는 인공지능 윤리의 실천적 수단을 보다 구체화할 필요가 있다.

  우선적으로 윤리 준수를 위한 기업의 자율적 노력을 지원하는 차원에서 인공지능 시스템 기획, 설계, 개발, 운영 전 단계에서 CEO, CIO, CDO, 개발자, 연구자가 인공지능 윤리를 실천하는 데 참고할 수 있는 자율점검표의 항목별 구체화가 필요하다. 즉, 각 주체가 분야별·사안별로 특성에 맞는 세부 윤리 및 신뢰성 지침을 수립해 나갈 수 있도록 특화된 인공지능 윤리 자율점검표를 개발하여 보급할 필요가 있다. 이를 통해 기업 스스로 윤리 준수 여부를 점검할 수 있고 미흡한 결과에 대해서는 기술적 및 관리적 측면에서의 개선과 보완이 가능할 것이다. 기업의 자율적인 신뢰성 확보와 윤리기준 준수를 우선으로 하되, 인공지능 서비스와 사회적 요구 간의 미스매치가 발생하는 경우에 기업의 대응 역량 확보를 위한 R&D 지원 방안 등을 고려할 수 있을 것이다.

  다음으로 인공지능의 개발 및 활용과정에서 인간의 기본권, 환경생태계, 윤리 등에 미치는 전반적인 영향을 평가 할 수 있는 윤리영향평가 프레임워크를 개발하여 적용할 필요가 있다. 윤리영향평가 프레임워크는 인공지능의 편익과 위험을 식별하고 잠재적 위험에 대한 예방 및 완화 조치를 하는 데 있어 형식, 진행방식, 방법론, 환류 체계 등 의 기본 틀을 제시할 것이다. 이와 관련해서는 국제사회에서도 논의가 한참 진행 중인데, UNESCO는 2021년 발표한 인공지능 윤리 권고를 통해 회원국들에게 인공지능 윤리영향평가를 실시할 것을 요구하고 있다. 또한 EU는 2021년 발의한 인공지능법안의 수정 과정에서 고위험 인공지능 사용자에 대한 기본권 영향평가 의무를 부과하는 방안을 논의중에 있다. 따라서 글로벌 시장에서 통용되는 윤리영향 평가 프레임워크를 개발하여 글로벌 규범 정립을 주도할 필요가 있고 이는 곧 우리나라 인공지능 산업 진홍의 기반으로 활용될 수 있을 것이다. 또한 이는 자율점검표 활용 확산 등 인공지능 윤리의 실천수단 강화와 함께 인공지능에 대한 합리적 관리체계를 수립하는 데 초석을 제공할 수 있을 것이다.

  전 세계적으로 초거대·생성형 인공지능이 촉발한 윤리적·사회적 이슈가 확산되는 한편 인공지능 산업진흥과 규제가 혼란스럽게 공존하는 상황에서 인공지능이 경제·사회에 미치는 긍정적 영향을 극대화하고 부정적 영향을 최소화하기 위해서는 양자 간의 적절한 균형점 모색이 필요 한 시점이다. 덧붙여, 향후 인공지능 윤리 정착을 위한 정책은 다양한 이해관계자가 참여하여 충분한 숙의를 통해 도출하고 사회적 합의를 전제로 추진해야 그 실효성을 담보할 수 있을 것이다.

참고문헌
1. 과학기술정보통신부·정보통신정책연구원(2020), '사람이 중심이 되는 인공지능 윤리기준'
2. 문정욱 외(2020), 윤리적 인공지능을 위한 국가정책 수립, 정보통신정책연구원.
3. 문정욱 외(2021), 사람중심의 인공지능 구현을 위한 인공지능 윤리정책 개발, 정보통신정책연구원.
4. 문정욱 외(2022), 인공지능 윤리체계 확립을 위한 정책연구, 정보통신정책연구원.
5. 문광진 외(2022), 2022 인공지능 윤리정책 포럼 운영 결과, 정보통신정책연구원.
6. 이현경 외(2022), 인공지능 윤리교육 교재 개발, 정보통신정책연구원.
7. Fobes Technology Council(2019), 'How Will Al Impact Society In The Next Decade? 11 Tech Pros Weigh In'.

  • 부서대외협력팀
  • 담당자신보람
  • 연락처043-531-4403