교황청, AI 윤리 백서 '로마 콜' 발표...6대 원칙 제시

서문, 윤리, 교육, 권리 등 4개 부문으로 구성

컴퓨팅입력 :2020/03/01 17:56    수정: 2020/03/01 19:03

로마 교황청이 인공지능(AI) 시스템이 준수해야 할 규정과 원칙을 발표했다. '사악한 AI'를 막기 위한 교황청의 AI백서다.

로이터 등 외신에 따르면 교황청이 지난 28일(이하 현지시각) 발표한 'AI 윤리를 위한 로마 콜(Rome Call for AI Ethics)'은 마이크로소프트(MS), 페이스북 같은 테크 기업들이 지지했을 뿐 아니라 준칙 마련에 도움을 줬다.

서문에서 '로마 콜'은 "AI 발전은 기술이 아니라 사람에 초점을 두고 이뤄져야 한다"고 강조했다.

'로마 콜'은 ▲서문 ▲윤리(Ethics) ▲교육(Education) ▲권리(Rights) 등 4개 부문으로 이뤄졌다.

서문에서 '로마 콜'은 AI가 인간의 삶에 큰 변화를 가져오고 있으며, 앞으로도 그럴 것이라면서 "신기술은 모든 '인간 가족(human family)'에 봉사한다는 원칙하에 연구되고 상용화돼야 한다"고 강조했다.

로마 교황청이 2월 28일 발표한 AI윤리 백서.

또 윤리 부분에서는 모든 인간은 존엄과 권리를 갖고 자유롭고 평등하게 태어났다면서 "AI 시스템을 사용하고 만들때는 이런 정신을 보호하고 보장해야 한다"면서 "AI 시스템은 인간과 인간이 살고 있는 환경에 봉사하고 보호하기 위해 고안되고 설계 및 구현돼야 한다"고 규정했다.

권리 부분에서는 인류애적 관점에서 AI 발전이 약자와 소외된자들을 보호해야한다면서 "인류와 지구에 이익이 되는 AI 시스템을 개발하고 구현하려면 AI의 발전이 강력한 디지털 보안 대책과 병행돼야 한다"며 보안의 중요성도 강조했다.

또 안면 인식과 같이 인권에 영향을 미칠 위험이 높은 첨단 기술의 경우 윤리 원칙에 대한 투명성과 준수를 촉진하기 위해 새로운 형태의 규제가 권장돼야 한다고 지적했다.

'로마 콜'은 AI가 윤리적으로 디자인돼야 한다는 'algor-ethical'이라는 새로운 개념도 제안했다. 특히 권리 부분에서 AI의 윤리적 이용을 위해 필요한 6가지 원칙으로 투명성, 포용, 책임성, 불평부당, 신뢰성, 보안&프라이버시를 제시했다.

투명성(Transparency)은 AI시스템이 반드시 설명가능해야 한다는 것으로, (왜 그런 결정을 내렸는지) 설명을 하지 못하는 것이 현 AI시스템의 맹점이다. AI 윤리 옹호자들은 '설명 가능성'이 인공지능 시스템에 책임을 물을 수 있는 중요한 방법 중 하나라고 지적한다.

포용(Inclusion)은 AI로부터 이익을 얻는 것은 일부가 아닌 모든 사람이 돼야 하고, 책임은 AI를 디자인하고 설치하는 사람들은 반드시 책임과 투명성 원칙하에 움직여야 한다는 것이다.

또 불편부당(Impartiality)은 편견없는 데이터 입력을, 안전과 프라이버시는 AI 시스템은 안전할 뿐 아니라 사용자 프라이버시를 존중해야 한다는 것이다.

준칙 마련에 앞서 프란치스코 교황은 페이스북 CEO 마크 쥬커버그와 MS 법률 사장 브래드 스미스, 에릭 슈미트 전 구글 회장 등을 만나 의견을 교환했다.

한편 교황은 27일 바티칸에서 열린 '디지털 시대의 공익 콘퍼런스'에서 "디지털 기술은 윤리적 의무를 수반해야 한다"고 밝히기도 했다.

관련기사

신기술이 카톨릭과 인간 사회에 미칠 영향을 탐구해 온 교황과 교황청은 AI의 미래에 대해 그동안 큰 관심과 우려를 함께 표방했다.

프란치스코 로마 교황이 대중의 환호에 답례를 하고 있다.

이번 '로마 콜'은 전문가들이 그동안 AI에 대해 주장해온 것들로, 지난해 유럽연합(EU)이 발표한 구속력이 없는 AI 가이드라인과 트럼프 행정부가 1월 발표한 인공지능(AI) 규제 지침도 일부 반영됐다.