요약
‘이루다’ 사건으로 AI의 윤리 문제가 수면위에 드러났고, 많은 우려와 함께 대응방안에 대한 논의가 활발하게 진행되고 있다. AI의 위험성은 이미 지속적으로 경고되어 온 것으로 이 문제를 해결하기 위해 국가와 기업, 학계와 단체 등 주체를 가리지 않고 윤리적, 규범적 논의를 다양하게 실시하고 있다. AI 기술에 대한 위험에 대응하기 위해 윤리적 규범과 원칙이 제시되고 있고 법률적·규제적 통제가 본격화되고 있기도 하고 있다. 이러한 상황속에서 발생한 ‘이루다’ 사건은 우리가 해당 논의를 함에 있어 무엇을 중요하게 여겨야 하는지에 대하여 다시 한번 고민하게 되는 계기가 되었다. 이 글에서는 ‘이루다’ 사건을 되짚어보면서 AI의 위험성을 통제하고 AI 기술과 공존하는 시대에 진입한 우리사회가 무엇을 준비해야 하는지 AI와 관련된 윤리적·법적 규범이 본질적으로 다루어야 하는 것은 무엇인지 그리고 어떻게 접근하는 것이 타당한지에 대해서 고민해보고자 한다.
목차
{toc}