요약
중국 정부는 AI 기술의 발전에 따른 새로운 위험에 대응하고 AI 기술과 산업 발전을 촉진하기 위해 AI 안전 거버넌스 프레임워크 2.0(AI Safety Governance Framework 2.0)을 발표함 ● AI 안전 거버넌스 프레임워크 2.0은 이전 버전에서 제시한 AI 거버넌스의 원칙을 재확인하면서 총체적 위험 범주 분류, 균형적 대응 조치 마련, 전주기적 실행 지침 제시라는 특징을 지님 - (원칙) 발전과 안전의 균형, 사람 중심, 국제 협력의 기본 원칙을 유지 - (위험 분류) ① 내재적 위험(모델·알고리즘 위험, 데이터 위험), ② 응용 위험(사이버 시스템 위험, 콘텐츠 위험, 현실 위험, 인지 위험), ③ 파생 위험(사회·환경 위험, 윤리적 위험)으로 구분하여 제시 - (대응 조치) 위험별 대응책을 ① 기술적 조치(적대적 훈련, 결함 전이 평가, AIGC 경고 표시·라벨링, 차별 방지 기술 등)와 ② 종합 거버넌스 조치(법제도 정비, 데이터 보안 및 개인정보 보호 규범 개선, AI 안전 인재 양성 강화, 사회 AI 안전 인식 제고, AI 안전 거버넌스 국제 협력 촉진 등)로 나누어 제안 - (실행 지침) R&D에서 배치, 운영, 사용에 이르기까지의 AI 전 생애 주기를 포괄하는 안전 지침 강조 ● 본 정책은 중국이 자국 내 AI 안전 거버넌스에 관한 합의 구축에서 나아가 글로벌 AI 거버넌스 참여와 국제 규범 형성의 계기를 마련하려는 노력으로 해석될 수 있음목차
1. 개요2. 주요 내용
3. 소결
본 저작물은 "공공누리" 제4유형: