"구성원 소외되지 않게 노력"…카카오, AI윤리 '포용성' 추가

대외정책팀 김대원 이사, 개발자컨퍼런스 'if kakao' 2일차 발표

컴퓨팅입력 :2019/09/02 22:22

카카오가 사회 구성원을 소외시키지 않는 인공지능(AI)의 필요성을 강조했다. 지난해 'AI윤리' 지침으로 발표한 카카오 알고리즘 윤리 헌장에 최근 추가한 '기술의 포용성' 조항에 그런 노력을 지속하겠다는 다짐을 담았다.

카카오 대외정책팀 김대원 이사 [사진=카카오]

카카오 대외정책팀 김대원 이사는 지난달 30일 개발자 컨퍼런스 '이프 카카오(if kakao)' 현장에서 "지난해 1월 31일 국내 최초 AI윤리원칙으로 발표한 '카카오 알고리즘 윤리 헌장'의 기존 5개 조항에 기술의 포용성이라는 6번 항목을 추가했다"고 밝혔다. 그는 카카오 알고리즘 윤리 헌장을 만들어 지난해 발표하기까지 과정을 주도하며 국내에 AI윤리라는 화두를 던진 인물이다.

기존 다섯 조항은 카카오 알고리즘의 기본 원칙, 차별에 대한 경계, 윤리적 학습 데이터 운영, 자의적 훼손으로부터 알고리즘의 독립성, 알고리즘에 대한 설명 가능성을 다뤘다. 기술의 포용성은 '알고리즘 기반의 기술과 서비스가 사회 전반을 포용할 수 있도록 노력'한다는 내용이다. 카카오는 이 조항을 통해 알고리즘에 내재된 특성이 의도하지 않은 사회적 소외를 초래하는 역기능에 민감해하고, 취약 계층의 편익과 행복 증진에 주의를 기울이겠다고 밝혔다.

수년 전부터 AI윤리는 세계 각국 기술전문가집단 사이에서 주요 논제로 떠오르고 있다. 최근 일반 대중들의 인식 속에 AI라는 '미지의 존재'가 부각되면서 막연한 두려움이 확산되는 추세다. 아직 긴밀하지 않은 AI와 윤리의 연관성을 수면 위로 끌어올리려는 움직임이다.

지난 2016년 구글, 마이크로소프트(MS), 아마존, IBM, 페이스북 등은 AI윤리 관련 문제를 논의하는 비영리단체 '파트너십온AI'를 결성했다. 테슬라는 비슷한 활동을 목적으로 '오픈AI'라는 단체를 만들었다. 약 2년전 국제전기전자기술자협회(IEEE)는 AI 기술개발에 인간의 복리를 우선시하기 위한 판단 도구를 표준화하겠다고 발표했다. MS는 지난 2017년 7월 내부 AI 연구인력을 위한 AI 설계 원칙, 윤리적 설계 가이드를 만들었고 지난해 '인공지능으로 변화될 미래'라는 책을 통해 AI윤리 문제를 직접적으로 다뤘다.

한국에선 행정안전부가 지난해 11월 정부차원의 AI활용 윤리기준 연구를 지원한다는 소식이 있었다. 유럽연합(EU)에선 집행위원회가 올해 4월 기업과 정부의 AI 개발간 지켜야 할 윤리 지침이 발표됐다. 카카오의 알고리즘 윤리 헌장은 이들보다 비교적 이른 시기에 진행된 논의를 통해 구체화된 결과물이다.

김 이사의 설명에 따르면, 여전히 AI가 왜 윤리적이어야 하느냐는 의문이 있다. 휴대전화나 TV같은 기기를 두고는 '이용자'의 윤리를 말하지만 AI는 유독 개발이나 기획하는 사람에게, 또는 알고리즘 자체가 윤리적이어야 한다는 부담을 지는 듯하다. 영화 '터미네이터'를 통해 사람을 해치는 로봇 이미지를 갖고 있는 이들에겐 AI에도 윤리가 있어야 한다는 생각이 쉽게 떠오르지만, 당장 그런 수준의 윤리를 논의하긴 이르지 않느냐는 진단이다. 개발자들은 현시점에 AI에 윤리를 부여하기는 너무 이른 것 아니냐고 반문한다.

김 이사는 "일어나지 않은 일에 대해 개연성만으로 얘기하기는 위험하지만, AI는 인간의 지적 능력을 대체한다는 점에서 다른 기술과 다르다"며 "과학의 발전으로 만들어질 뭔가가 1900년대부터 사람들이 상상했던 일들을 이뤄낼 것이고, 드론을 활용한 살상용 무기라든지 이런 일부 특징적인 결과물을 접한 구성원들에 의해 결국 AI도 윤리가 있어야 한다는 견해가 사회적 지지를 받고 있다"고 지적했다.

그는 AI라는 용어 이전에 '스스로 인간의 부역을 대신하는 존재'라는 의미의 체코어 '로보타(robota)'를 기원으로 하는 로봇 개념을 갖고 거슬러올라가보면, AI윤리의 역사는 100년도 더 된 것이라고 설명했다. 이를 기준으로 바라볼 때 AI윤리는 역사적으로 네 단계의 흐름으로 나뉜다고 봤다. 첫째는 로봇 개념의 AI의 역할에 초점을 맞춰 'AI가 인간 후생에 기여해야 한다'는 단계, 둘째는 로봇과 AI가 단지 인간의 수단이나 도구일뿐아니라 '인간과 공존하는 존재'라 인식하는 단계, 셋째는 인간의 관점에서 'AI가 좀 더 투명하고 믿을 수 있는 상대여야 한다'는 단계, 넷째는 AI가 초지능을 갖춰 인간보다 더 똑똑해질 수 있지 않을까 우려할 수 있는 단계다.

아직 이 모든 단계의 AI윤리를 카카오의 알고리즘 윤리 헌장이 반영한 건 아니다. 카카오의 AI윤리 배경은 인간을 넘어설 수 있는 AI의 존재에 대한 우려라기보다는, 실제 제공되는 서비스의 품질 문제로 접근할 수 있는 알고리즘 영역에서 개발자와 회사가 가져야 할 책임의식을 다루고 있다.

김 이사는 "(현실에서) 스마트 어시스턴트의 차별은 QoS 차원으로 해석되는 게 타당하다"면서도 "그게 의도적으로 사람을 차별하지 않을까, 같은 맥락에서 편향성이 부각되지 않을까, 저 불투명한 알고리즘은 어떻게 만들어졌을까, 통제할 수 없는 AI에 대한 막연한 공포, 이런 쪽으로 AI가 발전할 가능성에 따른 우려가 제기돼, 그 해결책으로 AI 윤리가 제시된 것"이라고 설명했다.

또 "카카오는 AI를 서비스를 발전시키는 인프라 고도화 수단으로 바라보고 있고, 그 차원에서 합의된 내부 윤리의식을 점검해야하지 않을까, 합의를 위한 논의가 필요하지 않을까 고민하고 국내 처음으로 현재 주된 서비스에 적용된 알고리즘의 일부를 AI리포트나 논문을 통해 설명하기 위해 노력해 왔다"고 덧붙였다.

관련기사

이어 "지난 2017년 9월 연구를 시작했고, CEO를 포함한 전체 크루(구성원)에게 의사를 묻는 것을 포함한 내부 논의 작업을 거쳐 실제 5개로 구성된 조항을 카카오 알고리즘 윤리헌장으로 확정해 2018년 1월 발표하게 됐다"며 "이후 유네스코 요청을 받고 지난해 11월 프랑스 파리 AI 정책포럼에서 이 사례 발표를 다녀왔다"고 밝혔다.

그는 인터넷에도 공개한 알고리즘 윤리헌장이 이날 오전 11시 기점으로 여섯째 조항 '기술의 포용성'을 포함한 버전으로 갱신됐다고 언급하며 그 의미를 추가로 설명했다. 회사가 만들어내는 서비스가 이용자와 일반소비자를 비롯해 기존 사회 구성원들에게 미치는 영향을 고려했을 때 발생할 수 있는 갈등을 줄이고 상생할 수 있는 방안을 마련하는 것도 포함해 "모두가 함께 발전하고 소외되는 사람이 없는 세상"을 만들어 가도록 노력하겠다는 의미라는 설명이다.