KISDI 정보통신정책연구원

KISDI 정보통신정책연구원

검색 검색 메뉴

영상보고서

신뢰할 수 있는 AI시대, 사람 중심의 인공지능 윤리기준

  • 등록일 2021-09-02
자막

신뢰할 수 있는 AI시대, 사람 중심의 인공지능 윤리기준
| KISDI 지능정보사회정책센터 문정욱 센터장

정보통신기술의 발달과 함께 인공지능이 사회, 경제 그리고 우리 생활 전반에서 널리 활용되고 있습니다. 
그러나 편리함 너머로 개인정보 침해나 개인 특성에 따른 편향, 인종·성 차별 문제 등 역기능에 따른 부정적 논란이 불거지기도 합니다.
기술은 궁극적으로 인류를 위한 것이어야 한다는 점에서 인공지능의 양면성에 대해 충분한 고민이 필요한 시점인데요.
KISDI 인포그래픽, 이번 편에서는 신뢰할 수 있는 AI 시대를 위한 ‘사람 중심의 인공지능 윤리기준’에 대해 알아보겠습니다.

#1 인공지능 윤리기준이란?

인공지능은 결정과 행위를 자동화하는 기술입니다.
결정 과정에서 인간을 배제하기 때문에 데이터의 사용과 알고리즘 설계에 있어 선제적 윤리 대응이 필수인데요.
정보통신정책연구원은 정부, 전문가 자문단과 함께 실제 인공지능 활용 사례와 그에 따르는 윤리적 쟁점에 기반해 인공지능 윤리기준을 마련하고 관련 정책을 수립하고 있습니다.
인공지능 윤리기준이란, 인공지능의 개발, 제공, 활용에서 준수해야 할 범국가 차원의 기본 원칙입니다.
우리 생활에 깊숙이 자리하게 될 인공지능이 궁극적으로 인류를 이롭게 하고, 사회적 안녕과 공익 증진에 기여할 수 있도록 개발자, 제공자, 이용자 등 이해관계자 모두의 가치를 포섭하는 보편적인 윤리기준으로 기능할 수 있습니다.

[담당 연구원 인터뷰1]
모든 인공지능은 단순히 인간에게 유용함을 넘어서 인간 고유의 성품을 보존하고 함양되도록 개발, 활용돼야 합니다.
‘사람 중심’이라는 확고한 목표를 위해 다양한 전문가들의 의견을 청취하고 입체적 분석 및 공론화 과정을 거치며 범용성을 가진 일반원칙으로서의 완성도를 높였습니다. 
특히 주요 쟁점이었던 구속력과 강제력이 있는 ‘법’이나 ‘지침’과 구분하여 ‘윤리기준’의 형태로 기준을 제시했다는 것에도 큰 의의가 있습니다.
이는 기업의 자율성을 존중하고 기술발전을 장려하며, 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성하기 때문입니다.

#2 사람이 중심이 되는 인공지능 윤리기준

사람 중심의 인공지능 윤리기준은 기존에 제시됐던 수평적, 병렬적 구조의 윤리원칙과 달리 인공지능이 추구해야 상위 가치와 하위 원칙을 수직적 구조화하여 차별화했습니다.
최종적으로 마련된 ‘인공지능 윤리기준’을 자세히 살펴볼까요?
사람이 중심이 되는 인공지능 윤리기준은 ‘인간성’이라는 최고 가치를 설정하고 이를 달성하기 위한 3대 원칙 및 10대 핵심 요건을 제시했습니다. 
인공지능 개발 및 활용 과정에서 고려돼야 할 세 가지 기본원칙으로는 ‘인간 존엄성, 사회의 공공선, 기술의 합목적성’이 있습니다.
또한, 인공지능의 개발부터 활용에 이르는 전 생애주기에서의 10가지 핵심 요건이 수립됐습니다. 
이렇게 완성된 인공지능 윤리기준은 지난해 12월 대통령 직속 4차산업혁명위원회의 심의·의결을 거쳐 과학기술정보통신부 등 관계부처 합동으로 발표되었습니다.

#3 윤리적 인공지능 정책 추진을 위한 거버넌스

한편, 인공지능 관련 정책 수립 시 우리나라에 적합한 윤리적 가치 기준과 거버넌스 협업체계를 마련하고자 구글, 카카오 등 기업과 각국 정부 기구, 민간 및 국제기구 등 국내외 다양한 관련 조직 24개의 인공지능 윤리원칙 내용과 윤리정책 거버넌스를 비교·분석했습니다.
이들 사례에서 몇 가지 핵심적인 기준들이 반복적으로 나타나거나 일정한 내용으로 수렴하는 특징을 확인했습니다.
<9개 핵심내용 기준> 24개 윤리기준 사례를 9개의 핵심 내용을 기준으로 살펴보니 공정성, 설명가능성, 책임성, 사회적 편익이 가장 자주 등장한 반면, 인간통제는 가장 드물게 나타났습니다. 
<참여자 분포도 기준> 거버넌스 참여자 분포 측면에서도 주로 인공지능 관련 산업계가 주요 행위자로 나타나며 80% 이상의 공통된 결과가 도출됐으며, 협회 및 학계, 정부 부문이 그 뒤를 이었습니다.
<거버넌스 주체별 핵심내용 빈도>한편 가이드라인 마련 주체에 따라 거버넌스 별 특징을 볼 수 있는데요. 기업이 주도한 윤리 가이드라인은 5개 상위 항목의 빈도가 고르게 나타났고, 비영리단체가 주도한 거버넌스는 안전성 빈도가 가장 높게 나타났습니다.
<거버넌스 주체별 거버넌스 참여자 분포>또한, 거버넌스 주체에 따라 거버넌스 참여 수준도 달라집니다. 기업 주도 거버넌스에는 다양한 참여자들이 고르게 참여하지만, 다른 주체의 거버넌스에서는 각각 두드러지는 참여자군이 확인됩니다. 
이외에도 주체별 인공지능 윤리지침의 목표대상이나 거버넌스 협업체계의 특징이 달라지는 것을 확인할 수 있었습니다.

[담당 연구원 인터뷰2]
이처럼 인공지능 윤리 가이드라인의 내용에 있어 각 거버넌스들은 공통된 핵심 원칙을 담고 있기도, 주체에 따라 참여자 분포나 목표대상, 협업체계의 특징이 다르게 나타나기도 합니다.
이러한 유의미한 데이터를 분석하고 취합해 합리적인 거버넌스 협업체계를 구축함으로써 인공지능 윤리정책 수립과 추진이 이뤄지겠죠.
인공지능 윤리기준은 인간과 ‘같은’ 인공지능이 아닌, 인간을 ‘위한’ 인공지능을 개발하는 데에 선제적이고 핵심적인 역할을 할 것이며, 인공지능 윤리 정책화의 지침이 될 전망입니다.
다만, 이 가이드라인이 일회성 규범으로 끝나지 않고 향후 새로운 윤리 이슈에도 적절한 대응책이 되도록 지속적인 수정·보완 체계를 마련해 나가야 할 것입니다.
인공지능에 대한 신뢰 수준을 높이고 사회적 수용성을 높이기 위해 정보통신정책연구원은 인공지능 윤리 자율점검 체크리스트를 개발하여 보급하고 또한 개발자, 제공자, 이용자 모두에게 제공될 수 있는 인공지능 윤리교육 총론을 마련할 것입니다. 

더욱 고도화되는 인공지능 시대 기술의 발전과 함께 생겨나는 크고 작은 윤리적 쟁점들을 사회 구성원들의 신뢰에 기반하여 실효성 있게 해결하는 플랫폼으로서, ‘인공지능 윤리기준’이 제 역할을 할 수 있길 기대해 봅니다.
정보통신정책연구원 지능정보사회정책센터였습니다.

설명

정보통신기술의 발달과 함께 인공지능이 사회, 경제 그리고 우리 생활 전반에서 널리 활용되고 있습니다.

그러나 편리함 너머로 개인정보 침해나 개인 특성에 따른 편향, 인종·성 차별 문제 등 역기능에 따른 부정적 논란이 불거지기도 합니다.

기술은 궁극적으로 인류를 위한 것이어야 한다는 점에서 인공지능의 양면성에 대해 충분한 고민이 필요한 시점인데요.

 KISDI 인포그래픽, 이번 편에서는 신뢰할 수 있는 AI 시대를 위한 ‘사람 중심의 인공지능 윤리기준’에 대해 알아보겠습니다.

AI #인공지능 #AI윤리기준 #인공지능윤리기준 #인간의존엄성 #사회의공공선 #기술의합목적성

유튜브 바로가기 : https://youtu.be/JrakC2WohKE

  • 부서대외협력팀
  • 담당자한유경
  • 연락처043-531-4383