차별없는 AI 만들기, 'AI 나우' 시동

편향-고용문제 등 연구해 'AI 공통 언어' 만들 것

컴퓨팅입력 :2017/11/20 16:59

손경호 기자

지난해 5월 비영리 탐사보도 전문매체인 프로퍼블리카는 흥미로운 실험을 했다. 이 매체는 '기계편향(Machine Bias)'이라는 제품의 보고서를 발표했다.

미래 범죄자로 예상되는 인물을 알고리즘에 대해 실험한 결과, 이 알고리즘이 백인보다 흑인을 더 위험한 범죄자라고 여기는 확률이 높다는 편향을 갖고 있다는 사실을 확인한 것이다. 실제로는 그렇지 않았다.(☞관련 링크)

구글과 마이크로소프트가 '인공지능(AI) 퍼스트'를 외치고, 페이스북, 아마존 등은 AI를 활용해 개인화된 서비스를 제공할 수 없게 되면 비즈니스가 불가능할 정도라고 말한다. IBM은 왓슨으로 헬스케어 AI 분야에서 주도권을 잡기에 나섰지만 그만큼 AI 의사가 오진을 내렸을 경우에 대한 공포감도 커졌다.

카카오 정책지원파트가 최근 발간한 AI 위클리 토크-11에 따르면 미국 국토안보부(DHS)는 머신러닝 기반 자동화 소프트웨어를 도입해 입국 심사장에서 이민자나 방문자들의 적합성을 판단한다는 계획을 마련했다. 그러나 구글, 마이크로소프트, 뉴욕대, 스탠포드대, 스포티파이, AI 나우 등이 여기에 반대했다.

잠재적인 범죄자의 얼굴을 판단하는 AI는 입력된 데이터에 따라 달라지는 편향성을 극복하기 어렵다는 판단에서다.

AI에 대한 연구는 활발히 진행되고 있지만 정작 AI가 사회에 어떤 영향을 미칠지에 대해 진지한 연구는 아직까지 진행되지 않고 있는 실정이다.

알고리즘이 어떻게 사법기관이 사람들의 피부색을 분간하는지 혹은 알고리즘을 학습시키는데 쓰이는 데이터가 여성이나 소수자 등에 대한 암묵적인 편향을 갖고 있지는 않은지 등에 대한 연구하는 학술기관이나 기업을 찾기는 힘들다.

AI 나우 "과학자-변호사-사회학자-경제학자 사이 AI 격차 메울 것"

이런 이유로 마이크로소프트 리서치 케이트 크로포드 책임 연구원과 구글 오픈리서치 창설자인 메레디스 휘태커 연구원은 'AI 나우 위원회(AI Now Institute)'를 구성했다. AI가 사회에 미치는 영향에 대해 보다 진지한 논의가 필요하다는 배경에서 나온 연구단체다.

AI 나우는 AI를 적용하기 위한 연구를 진행하는 데이터사이언티스트, 변호사, 사회학자, 경제학자 등 사이 간극을 메우는 교차 규율을 만들게 될 것으로 전망된다.

IT전문매체 쿼츠에 따르면 크로포드 연구원은 "AI 연구를 가속화하기 위해 투입된 자금과 산업용 에너지 규모는 그동안 이러한 시스템을 위한 사회적, 경제적, 윤리적인 프레임워크를 생각하는데 많은 에너지를 투입하지 않았다는 것을 의미한다"고 밝혔다. 이어 그는 "우리는 빨리 이러한 작업들이 이뤄져야한다고 생각한다"고 강조했다.

AI 나우는 지난달에 발표한 보고서를 통해 앞으로 집중할 이슈들을 선정하는 작업을 진행했다. 이를 수행할 100여명 가량 연구원들도 채용할 계획이다.

여기에는 캘리포니아 대법원 마리아노 프로렌티노 쿠엘라 판사, 미국 인권단체인 유색인종지위향상협회(NAACP) 셰릴린 이필, 전직 백악관 최고기술책임자(CTO)인 니콜 웡, 대용량 데이터베이스에서 개인을 보호하기 위한 표준에 대한 아이디어를 낸 신시아 드워크, 딥마인드 공동 창업자인 무스타파 셜리먼 등이 참여한다.

인공신경망에 대한 연구가 진행 중인 뉴욕대에 근거를 둔 이 위원회는 해당 대학 내 로스쿨과 문화, 교육, 인간개발 전공 스테인하르트 스쿨 등과 협업한다.

편향 이슈서 고용문제, 공공성까지 '공통 언어' 만든다

AI 나우는 4가지 분야를 초기 연구주제로 선정했다.

관련기사

▲잘못된 데이터를 AI 연구에 사용하면서 벌어지는 편향과 이에 대한 포용 문제(Bias and inclusion) ▲AI로 인해 고용이 사라지는 현상에 대한 해결책을 모색하는 노동과 자동화(Labor and automation) ▲정부가 AI를 사용하는 일이 어떻게 시민들과 상호작용에 영향을 미칠지에 대해 다루는 권리와 자유(Rights and liberties) ▲AI가 어떻게 하면 편향 없이 안전하게 헬스케어와 관련된 의사결정을 할 수 있을 지에 대한 내용을 다루는 안전과 공공성(Safety and critical infrastructure)이 그것이다.

크로포드와 휘태커는 "AI의 사회적 문제에 대한 해결책을 만드는 과정에서 한 가지 장벽은 AI를 만드는 사람들과 그 의미와 영향을 연구하는 사람들 사이에 공통 언어가 부족하다는 점"이라고 지적한다.