요약
● 국제사회는 AI 윤리 논의를 선언적 원칙에서 벗어나 사전적 위험관리와 책임성 확보를 중심으로 한 제도 설계 논의로 전환하고 있으며, EU와 미국은 각기 다른 방식으로 AI 영향평가를 정책·제도에 반영하고 있음- 우리나라는 이러한 흐름에 대응하여 법적 규제와는 별도로 AI 제품·서비스의 윤리적·사회적 영향을 정책적으로 점검·공유하기 위한 수단으로 AI 윤리영향평가를 단계적으로 추진
● AI 윤리영향평가는 개별 기업의 의무 이행을 전제로 한 제도가 아니라, 정부가 특정 AI 서비스 유형을 대상으로 윤리적 영향과 잠재적 쟁점을 분석·정리하여 사회적 논의와 정책 검토에 참고자료를 제공하는 데 목적이 있음
- 이를 통해 인권 침해, 사회적 신뢰 저하, 책임성 문제 등 AI 활용 과정에서 발생할 수 있는 윤리적 영향을 사전에 가시화하고, 이해관계자 간 공통의 인식 기반을 형성
● 2024년 수행된 AI 윤리영향평가는 AI 영상 합성 서비스를 대상으로 윤리적 영향을 체계적으로 검토하고, 주요 쟁점과 정책적 대응 방향을 제시한 시범 사례로서 의미를 가짐
- 향후에는 이러한 성과를 토대로 AI 윤리영향평가를 「AI 기본법」 제35조에 따른 AI 영향평가 체계로 재정비하고, 정부는 제도적 틀을 마련하고 기업은 자율적으로 평가를 수행하는 역할 분담 구조로 전환할 필요가 있음
목차
1. 개요2. 국내외 주요 영향평가 제도 비교분석
3. AI 윤리영향평가 프레임워크
4. 시범 평가: AI 영상 합성 서비스 윤리영향평가
5. 제언: AI 영향평가 향후 과제
본 저작물은 "공공누리" 제4유형: