"'킬러로봇' 개발을 금지하라"

일론 머스크 등 UN에 공개서한

컴퓨팅입력 :2017/08/21 11:30    수정: 2017/08/22 10:37

손경호 기자

로봇과 인공지능(AI) 기술을 조합한 일명 '킬러로봇'이 확산되는 것을 막기 위해 관련 전문가들이 힘을 모았다.

20일(현지시간) 테슬라, 스페이스X, 오픈AI 공동 창업자인 일론 머스크, 구글 딥마인드 무스타파 셜리먼 공동 창업자, AI 4대 천왕 중 하나로 알려진 캐나다 토론토대 요슈아 벤지오 교수 등은 치명적인 자동화 무기(lethal autonomous weapons)를 만들지 못하도록 금지해줄 것을 요청하는 공개서한에 서명했다.

이날 UN은 전 세계 로봇무기 경쟁에 대한 첫 논의를 진행할 예정이었으나 오는 11월로 연기했다. 일부 UN 회원국들이 이러한 논의에 대해 재정적인 지원을 하지 않기로 했기 때문이다.

로봇 및 AI 전문가들은 공개서한을 통해 UN이 킬러로봇에 대해 더 적극적인 제재가 필요하다고 강조했다.(사진=Future of life institute)

이 같은 결정에 대해 호주 멜버른에서 개최된 '인공지능 국제 공동 학술대회(IJCAI) 2017'에서 뉴사우스웨일즈대 AI 전문가인 토비 월시 교수는 UN이 연말로 연기한 논의에서는 더 진전된 내용이 다뤄지길 바란다는 요청을 담은 공개서한을 공개했다. 여기에는 26개국 전 세계 로봇 및 AI 전문가 116명이 서명했다.

UN이 1981년 제정한 '특정 재래식무기 금지협약(convention on certain conventional weapons, CCN)'은 생화학 무기, 실명을 초래하는 레이저 무기, 대인지뢰 등 불필요하게 혹은 정의롭지 못한 방법으로 적군을 고통받게하거나 무차별적으로 시민들이 영향을 받는 것을 금지한다.

로봇 및 AI 전문가들은 CCN에 킬러로봇에 대한 제재도 담기기를 바라고 있다.

공개서한은 "치명적인 자동화 무기는 전쟁에서 제3차 혁명으로 이어져 위협을 초래하게 될 것"이라며 "일단 개발되기만 하면 어느 때 보다 큰 규모로, 인간이 이해할 수 있는 수준 이상으로 빠른 시간 안에 무장 분쟁이 일어나게 될 것"이라고 경고했다. 화약과 핵무기의 발견 이후로 심각한 위협이 될 것이라는 지적이다.

이어 "이러한 무기들은 테러용으로 쓰일 수 있으며, 무기들이 독재자나 테러리스트의 손에 들어가 무고한 시민에게 위협을 가하게 되며, 만약 해킹된다면 의도치 않은 문제를 일으킬 수도 있다"고 주장했다.

관련기사

"일단 판도라의 상자가 열리면 더이상 닫기가 어렵다"며 "UN이 이러한 위협에서 우리 모두를 보호할 방법을 찾아야한다"는 것이다.

벤지오 교수는 "AI가 자동화 무기에 쓰이게 되는 것은 내 연구윤리를 훼손하는 일이기 때문에 공개서한에 서명하게 됐다"며 "이는 매우 위험한 단계로까지 확산될 수 있다"고 밝혔다. "자동화 무기가 더 좋은 AI 애플리케이션의 개발을 가로막을 수 있으며, 과거 도덕적으로 잘못된 무기들에 대해 그랬던 것처럼 국제사회에서 이 문제를 해결해야한다"고 덧붙였다.