요약
● 선도적인 인공지능 기업들은 ‘신뢰 가능한 AI’를 개발하고 서비스하기 위해 다양한 투명성 문서(system card, transparency note, model card 등)를 공개하고 투명성 확보 전략을 펼치고 있음
- 전세계적으로 인공지능 기업에 대한 공공의 불신이 커지고 있는 상황에서, 인공지능 기업들은 이용자들의 신뢰를 얻기 위해 인공지능 시스템에 대한 투명성을 높이고자 함
● OpenAI의 경우, 각 모델에 대한 시스템 카드(System card) 작성을 중심으로 투명성 확보를 위한 노력을 이어가고 있음
- 각 시스템 카드에는 안전한 모델 개발을 위한 평가 기준과 모델의 점수를 공개함
● Microsoft의 경우, 투명성과 함께 책임감 있는 AI 개발을 위한 전사 차원의 노력이 두드러짐
- 책임감 있는 AI 개발을 위한 조직 신설 및 운영을 통해 구조적 노력을 드러냄
- 연례 보고서 ‘Responsible AI Transparency Report’를 발간하며 투명성 확보를 위한 노력, 과정, 결과를 공표하고 있음
- 각 모델에 대한 안전한 활용법이 담긴 기술 문서를 공개하며 사업자들이 안전하게 활용할 수 있도록 지원하고 있음
● Google의 경우, 기술 자체의 투명성 뿐만 아니라 운영과 정책에서의 투명성 또한 중시하고 있음
- 각 모델의 Model card를 작성하고 있으며 윤리성과 안전성에 대한 평가 기준과 결과를 공개하고 있음
- ‘투명성 센터(Transparency center)’를 운영하며, Google의 전 제품과 서비스의 투명성 강화, 이용자 신뢰 구축을 위해 노력하고 있음
● 인공지능의 투명성에 대한 요구가 세계적으로 증가하고 있고 이를 충족하기 위한 민관의 노력이 이루어져야 인공지능 산업의 발전, 대중의 인공지능 리터러시 향상이 이루어질 수 있음
목차
1. 배경2. 주요 AI 기업의 투명성 확보 노력
3. 소결