MS, 채팅AI '테이' 부적절 언행 공식 사과

"더 잘 예측할 수 있을 때 다시 보이겠다"

컴퓨팅입력 :2016/03/28 07:10    수정: 2016/03/28 07:10

마이크로소프트(MS)가 인공지능 채팅봇 '테이(Tay)'의 부적절한 언행에 대해 공개적으로 사과했다.

테이는 MS의 대화형 인공지능(AI) 서비스로, 지난 23일 공개됐다. 트위터, 채팅 서비스 '킥', 그룹미, 스냅챗 등에 계정이 등록돼 일반 이용자들과 대화를 할 수 있게 만들어졌다. 18~24세 이용자들과 가볍고 재미있는 대화를 즐길 수 있도록 개발됐다는 게 MS 측 설명이었다.

그런데 테이는 세상 사람들과 교류한지 하루(약 18시간)만인 24일 사라졌다. 테이의 트위터 계정이 히틀러를 옹호하고 인종차별과 성적 발언, 정치적 발언을 일삼으면서 논란을 일으키자, MS가 서비스를 잠시 중단한다고 밝힌 것. 인터넷에 떠도는 데이터를 학습해 빚은 해프닝으로 해석됐다. 지난 25일 미국 씨넷 보도에 따르면 MS는 테이가 내보낸 트윗 메시지 9만6천건 이상을 삭제했지만, 이미 인터넷에 그의 발언 일부가 박제된 상태다.

[☞관련기사: MS, 인공지능 이용한 채팅봇 '테이' 공개]

[☞관련기사: MS 채팅 AI ‘테이’ 하루만에 서비스 중단]

[☞참조링크: Microsoft apologizes after AI teen Tay misbehaves]

MS는 담당 임원을 통해 공식 사과했다.

피터 리 마이크로소프트리서치 기업부사장이 작성해 공식블로그에 게재한 사과문. 마이크로소프트 채팅봇 테이의 인공지능이 사람들에게 불쾌한 트윗 메시지를 내놓도록 만든 데 책임을 느끼고 사과하며 이를 개선시켜 다시 테이를 선보이겠다는 내용이다.

피터 리 MS리서치 기업부사장(CVP)은 지난 25일 공식 블로그를 통해 "우리는 의도치 않게 공격적이고 상처를 준 테이의 트윗에 대해 진심으로 미안하게 생각한다"며 "(그 내용은) 우리가 누군지, 견해가 어떤지, 테이를 어떻게 설계했는지를 나타내지는 않는다"고 밝혔다. 또 "테이는 현재 오프라인이며 우리는 우리의 원칙과 가치에 반하는 해로운 성향(intent)을 더 잘 예측할 수 있다고 우리가 자신할 수 있을 때에 테이를 다시 데려오려고 한다"고 덧붙였다.

[☞참조링크: Learning from Tay’s introduction]

리 부사장은 테이를 선보이게 된 배경을 이렇게 설명했다.

"MS가 선보인 온라인 소셜 세계 최초의 AI 애플리케이션은 테이가 아니다. 중국에서 채팅 봇 '샤오아이스(Xiaoice, 微軟小?)'를 먼저 내놨다. …(중략)… MS는 이용자 4천만명에게 쓰인 샤오아이스를 보고, 그런 AI가 전혀 다른 문화적 환경에서도 매력적일 수 있겠느냐는 의문을 품었다. …(중략)… 이 물음에 대해 답을 얻기 위해 18~24세 미국 젊은이들을 주 이용자층으로 겨냥한 테이를 만들었다. 초기 다양한 이용자 그룹과 함께 수많은 필터링과 광범위한 스터디를 계획하고 수행했다. 다양한 조건 아래서 테이를 실험해 긍정적인 경험으로 상호작용할 수 있도록 했다. 테이가 이용자들과 상호작용했던 방식이 충분하다고 판단한 시점에, 그와 함께할 수많은 사람들을 받아들이고자 했다. 늘어나는 상호작용을 통해 AI가 많은 걸 배워 점점 더 좋아지리라 예상했다."

트위터는 이런 목적에 적합한 서비스라는 게 MS의 기대였지만, 결과는 알려진 대로다. 이에 대해 리 부사장은 다음과 같이 사과했다.

"불행하게도 최초 온라인 이후 24시간동안 테이의 취약점을 악용(exploited a vulnerability)한 일부 사람들의 조직적인 공격이 있었다. 우리는 다양한 시스템 악용 행태에 대해 대비했지만, 이런 특정한 공격에 대한 대응을 간과하는 치명적 실수를 범했다. 그 결과, 테이는 부적절하고 비난받을만한 발언과 이미지를 거칠게 쏟아냈다. 우리는 사전에 이런 가능성을 예상치 못한 점에 온전히 책임을 진다. 우리는 중국, 일본, 미국에서 우리의 경험을 토대로 또한 앞으로의 일을 교훈 삼으려 한다. 당장 우리는 테이에 닥쳤던 공격을 통해 드러난 특정한 취약점을 해결하기 위해 열심히 일하고 있다."

관련기사

MS는 리 부사장의 사과문을 통해 AI 디자인이라는 작업의 어려움에 대해서도 언급했다.

"앞으로 우리는 AI 디자인 분야의 연구 도전과제에 몇몇 어려움과 당면할 것이다. AI 시스템은 사람들과 주고받은 긍정적이고 부정적인 상호작용 모두를 소화한다. 이 경우 그들이 기술적인 것보다 훨씬 더 사회적이라는 게 난점이다. 우리는 기술적인 악용 가능성을 가능한한 억제하기 위해 모든 노력을 기울이겠지만, 동시에 우리는 실수로부터 학습하는 과정이 없는 인간 상호작용의 오용 가능성을 완전히 예측할 수 없다는 것도 알고 있다. AI가 옳게 행동하려면, 이를 공개 포럼에서 많은 사람들과 함께 자주 되풀이해야 한다. 우리는 중대한 교훈을 담은 각 사례에 동참해 궁극적으로 차근차근 학습하고 개선시켜서 그 과정에 사람들의 기분을 상하는 일이 없도록 해야 한다."