EU, AI 개발 7대 윤리 가이드라인 발표

통제가능성·안정성·투명성·다양성 등 보장해야

컴퓨팅입력 :2019/04/09 08:02    수정: 2019/04/09 08:59

유럽연합(EU)은 8일 기업과 정부가 인공지능(AI)을 개발할 때 지켜야 하는 윤리적 지침을 발표했다.

EU 집행위원회는 52명의 전문가 그룹을 소집해 AI가 충족해야 하는 7가지 요건을 제시했다.

해당 지침에는 ▲인간의 통제 가능성 ▲안정성 ▲개인정보 보호 ▲투명성 ▲다양성, 비차별성과 공정성 ▲지속가능성 ▲책임성 등을 보장하는 내용이 담겼다.

유럽연합(EU) 국기

지침에 따르면 AI는 인간의 자율성을 보장해야 한다. 사람들은 AI에 의해 조작되어서는 안 되며, 인간은 소프트웨어가 내리는 모든 결정에 개입할 수 있어야 한다.

또한 AI는 기술적으로 안전하고 정확해야 한다. 외부 공격과 타협해서는 안 되며, 신뢰가 가능해야 한다.

AI가 수집한 개인정보는 안전하게 보장되어야 하며, AI 시스템을 만드는 데 사용된 알고리즘과 데이터는 사람이 이해하고 설명할 수 있어야 한다.

이외에도 AI는 연령, 성별, 인종 등을 차별하지 말아야 하며, 지속 가능해야 하고, 감사 가능해야 한다.

EU 집행위는 지난해 4월 공공과 민간에서 AI 분야에 향후 10년간 200억유로(약 26조원) 이상을 투자하겠다는 목표를 세우고 AI 윤리 가이드라인 작업을 시작했다.

EU는 오는 여름부터 다양한 이해관계자가 참여하는 시범단계에 착수할 예정이다. 시범단계에는 외국 기업과 국제기구도 참여한다.

관련기사

EU는 일본, 캐나다, 싱가포르 등 다른 나라와의 협력을 강화하고, G7, G20 등에서도 지속적으로 적극적인 역할을 할 예정이라고 밝혔다.

안드루스 안십 EU 집행위 부위원장은 "우리 사회가 기술을 충분히 이용할 수 있기 위해서는 신뢰가 있어야 한다"며 "윤리적 AI는 유럽의 경쟁우위가 될 수 있는 윈-윈 전략"이라고 말했다.