요약
◈ 4차산업혁명 시대를 맞이해 인공지능(AI)이 전 산업에 걸쳐 혁신을 주도하는 가운데 윤리적 활용 및 안전성 관련 사건·사고 증가▶ AI 채팅봇의 성차별·인종차별적 발언, 가짜 이미지/영상 조작·배포, 자율살상무기 개발, AI로봇/안면인식 카메라 오작동 등이 지속 발생
▶ 학습 데이터의 종류에 따른 결과값의 편향성, 모델 설계의 오류, 블랙박스 구조로 인한 결과 도출 근거의 불투명성 등 AI의 기술적 한계에 기인
◈ 세계 주요국들은 보다 윤리적이고 신뢰할 수 있는 인공지능 구현을 위해 그동안 다양한 정책을 추진(이제영·김단비·양희태, 2019)
▶ 미국은 2016년 발표된 ‘AI 미래를 위한 준비’와 ‘국가 AI R&D 전략계획’에 이어 2020년 1월 연방정부의 규제 가이드라인에 인공지능 윤리 및 안전, 신뢰성 제고를 위한 원칙 및 방안 포함
▶ EU는 2019년 4월 ‘신뢰할 만한 인공지능 윤리 가이드라인’을 발표하고, 2020년 7월 인공지능의 신뢰성 측정을 위한 평가 목록을 공개
▶ 우리나라도 2017년 11월 ‘지능정보사회 윤리가이드라인’, 2019년 ‘인공지능 국가전략’, 2020년 11월 ‘국가 인공지능 윤리기준(안)’을 연달아 공개하며 인공지능의 신뢰성 확보에 박차
◈ 본고에서는 올해 발표된 미국과 EU, 우리나라의 신뢰할 수 있는 인공지능 관련 정책을 살펴보고 국내 기업들에 대한 파급력 측면에서의 시사점을 도출하고자 함의 시사점을 도출하고자 함