IBM, AI 정밀규제 위한 가이드라인 제시

사용자 신뢰 제공 위해 AI 규제 필요, 분야별 최적화된 정밀 규제 방향

컴퓨팅입력 :2020/01/24 08:26    수정: 2020/01/24 11:23

구글에 이어 IBM 역시 인공지능(AI)에 대한 정밀규제가 필요하다는 의견에 찬성한다는 입장을 밝혔다.

IBM은 기업이 AI가 어떻게 결정을 내리고 관련 규정을 준수하는지 투명하게 공개할 책임이 있다고 강조했다. 또한 AI가 사용자에게 어떤 영향을 미칠 수 있는지에 대해서도 알릴 의무가 있다고 주장했다.

더불어 기업이 AI를 도입하는 과정에서 규제로 인해 불이익을 받지 않도록 모든 분야를 통합한 하나의 규제안이 아니라 분야별로 최적화된 정밀규제가 필요하다고 덧붙였다.

IBM.

IBM은 21일(현지시간) 공식 블로그를 통해 IBM 정책연구소(IBM Policy Lab)를 소개하고 5가지 규제 가이드라인을 제안했다.

정책 연구소는 입안자들에게 AI 등 첨단 기술을 비전과 실행 가능한 규제 가이드라인을 제공하기 위해 마련된 포럼이다.

국제 법률&경제 센터의 전 정책담당자인 라이언 하게만(Ryan Hagemann)과 현 미국 상공회의소부회장인 장 마크 르클레르(Jean-Marc Leclerc)가 공동이사로 포럼을 이끈다.

IBM 정책연구소는 책임, 투명성 그리고 공정과 보안을 AI 규제의 핵심 요소로 꼽고 이를 바탕으로 5가지 정책 요구사항을 제안했다.

첫 번째는 기업 내에 AI 윤리 책임자가 지정하는 것이다. 윤리책임자는 시스템의 위험을 완화할 수 있도록 AI 위험 평가 및 피해 완화 전략을 감독하고 내부 지침 및 규정 준수 메커니즘을 책임져야 한다.

두 번째는 위험에 따른 맞춤 규정 수립이다. 사업분야나 업무에 따라 적용된 AI의 잠재적 위험요소가 다르기 때문에 위험성을 사전에 조사하고 분야별 최적화된 규정을 수립해야 한다는 것이다.

세 번째로 AI 시스템의 목적을 투명하게 공개해야 한다. 기업의 영업비밀일 수 있는 소스코드나 지식재산권(IP)은 공개하지 않더라도 사용자의 잠재적 위험과 피해를 막기 위해 AI가 어떤 목적을 가지고 시스템에 적용됐는지 밝히는 것이 필요하다.

네 번째는 AI의 의사결정 과정을 추적하는 것이다. 사용자에게 영향을 미칠 수 있는 모든 AI 시스템은 의도를 확인할 수 있도록 결론에 도달한 방법과 이유를 설명하고 상황에 맞게 설명할 수 있어야 한다.

끝으로 AI의 시스템 적용에 앞서 편향서 테스트가 이뤄져야 한다. 기업이 제작한 AI 시스템이 안전하게 만들어졌는지 확인할 수 있도록 공정성, 편향성, 견고성 및 보안성에 대한 테스트가 필요하다는 것이다.

테스트는 기업이 실시하고 정부가 준수 여부를 현장에서 점검하는 등의 ‘공동 규제’ 방식이어야 한다.

또한 AI 개발사와 운영업체는 관련 최종 사용자가 알아야 할 필수 정보를 자세히 설명하는 문서를 제공해야 한다.

IBM은 이러한 규제를 적용하기 위해서는 유럽전기기술표준화위원회(CENELEC), 미국표준기술연구소(NIST) 등 기존의 효과적인 공동규제 매커니즘처럼 주요 이해 관계자를 소집하고 AI 시스템에 대한 정의, 벤치 마크, 프레임 워크 및 표준을 만들기 위한 노력이 필요하다고 강조했다.

관련기사

더불어 정밀한 테스트가 이뤄질 수 있도록 환경이 통제된 AI 테스트 베드를 마련하고 기업이 자발적으로 AI 표준을 도입할 수 있는 장려정책이 필요하다고 덧붙였다.

IBM의 지니 로메티 회장은 블로그를 통해 발표한 내용을 비롯해 보다 자세한 내용을 다보스포럼에서 공개할 예정이다.