MS "코타나 한국어 지원, 올해는 계획 없어"

앤드류 슈먼 코타나 엔지니어링 기업부사장 빌드2019 현장 인터뷰

컴퓨팅입력 :2019/05/17 16:00

마이크로소프트(MS) 윈도10 디지털 비서 '코타나(Cortana)'가 한국어를 알아듣고 말하려면 시간이 더 필요하다. 일단 연내 한국어를 지원할 계획이 없다. 회사는 코타나에 새 지원 언어를 추가하기보단 이미 지원 대상인 언어를 더 잘 처리하고 신기능을 구현하는 데 집중하고 있다.

앤드류 슈먼 MS 코타나 엔지니어링 기업부사장(CVP)을 통해 확인된 사실이다. 그는 MS 본사에서 코타나 인공지능(AI)과 음성인식 기술을 담당하는 임원이다. 코타나 엔지니어링 그룹은 코타나 제품의 핵심요소 개발인력과 'MS 스피치 앤드 랭귀지' 부서를 포함한 조직이다.

앤드류 슈먼 MS 코타나 엔지니어링 기업부사장(CVP)

슈먼 CVP는 지난 1993년 MS에 메일클라이언트 '아웃룩' 담당 조직의 소프트웨어 엔지니어링 책임자로 입사했다. 입사 전 오피스 제품 관련부서에 데이터사이언스 및 머신러닝 생산성 솔루션을 제공하는 역할을 수행하기도 했다.

그의 현재 역할은 MS 대화형 AI 인터페이스 코타나를 만드는 조직을 이끌고 MS리서치 조직의 연구 포트폴리오 가운데 시장에 내놓을 수 있는 잠재적 제품 및 서비스를 발굴하는 일이다. 지난 6일부터 8일까지 진행된 MS 연례 개발자 컨퍼런스 '빌드2019' 현장에서 그를 인터뷰했다.

인터뷰에서 슈먼 CVP는 빌드2019 컨퍼런스 현장 발표 가운데 코타나 관련 뉴스를 간단히 소개했다. 코타나 AI를 떠받치는 핵심기술과 최근 추가된 요소도 제시했다. MS 코타나를 아마존 '알렉사'와 같은 타사 대화형 AI와 연동하기로 결정하게 된 배경에 대해서도 간단히 언급했다.

다만 코타나의 지원 대상 언어를 늘리는 계획에 대해선 말을 아꼈다. 올해 안에 코타나가 한국어를 지원하게끔 만드는 계획은 없다고 말했다.

슈먼 CVP와의 일문일답을 아래에 정리했다.

- 이번 빌드 행사에서 코타나와 관련된 뉴스의 메시지를 간단히 요약하면

"(지난해 인수한 자연어 AI 기술업체) '시맨틱머신(Semantic Machines)'의 기술을 발전시킨 것이다. 디지털 어시스턴트에 진정한 자연어 대화 경험을 가져올 수 있는 방법으로. [참조링크 ☞ Microsoft acquires Semantic Machines, advancing the state of conversational AI]

특히 흥미로운 부분은 사람들에게 자연스러운 표현 방식으로 사용되는 특정한 대화 이력의 서로 다른 편린(different pieces of the conversation history)을 짚어낼 수 있는 방법이라는 점이다." [참조링크 ☞ What’s Microsoft’s vision for conversational AI? Computers that understand you]

- 현재 코타나는 어떤 지역이나 언어를 지원하지 않는데, 뭐가 문제인가

"어시스턴트와 코타나는 새롭게 떠오르는 분야다. 우리는 먼저 미국(U.S.) 지역에서 영어로 뛰어난 경험을 제공해야 할 필요가 있다. 그 다음 세계 지역으로 확대할 수 있다.

다른 기술 요소도 마찬가지인데, MS 서치(Microsoft Search)를 예로 들면, 영어를 지원하는 걸로 시작했고 그 다음 서서히 다른 유사 기술로 확대하는 거다. 스마트 답장(smart reply)을 적용한 이메일 이해(Email understanding) 기술에 그랬듯이."

- 코타나는 언제 한국어를 지원할지, 현재 얼마나 숙달했는지 알려 달라

"올해는 아직 한국어를 지원할 계획이 없다. (한국어 지원과 관련해) 발표할 게 아무 것도 없다. (코타나의 한국어 숙련도를) 알려줄 수 없다." [참조링크 ☞ Cortana's regions and languages]

- 코타나의 기반 기술은 무엇인지, 그게 MS의 다른 제품에 어떻게 쓰였는지

"우리는 고객들과 더 잘 연결되기 위한 방법의 하나로, 더 나은 사용자 인터페이스를 확보하기 위해 AI 테크닉을 본질적으로 사용하고 있다. 자연어 및 회화 처리(Natural Language and Speech Processing)가 거대 투자 분야의 하나다.

여기에 선행하는 요소들이 더 있다. 예를 들면 프로젝트를, 사람들의 이메일에 담긴 의도(intent)를 이해하는 것같은. 복잡한 상호작용을 더 단순하게 만들어주는 것이라든지. 이건 단지 음성지원 시나리오에서 우선시되는 게 아니고, 여전히 기반에 해당하는 부분이다.

우리는 (마이크로소프트 또는 오피스)365 신규 사용자의 모든 데이터를 갖고 있는데, 그건 다른 대상(entities)을 통하는 데이터에 연결할 수 있게 해준다. 우리는 그게 사람들 직장의 핵심 협력 상대와 일하는 프로젝트에서 모든 MS 제품 사용자에게 실질적인 힘을 준다고 본다."

- MS가 그리는 미래에서 일반적인 챗봇과 지능형 에이전트의 차이가 뭔가

"어시스턴트가 대화 능력을 활용해 사람들을 실제로 알아보는 상황에서 나타날 근본적인 차이를 생각해 보라. 그게 사람들과 그들이 처한 맥락을 더 이해할 수 있게 된다면 그건 매우 중요한 발전이다.

내가 (어시스턴트에) 영어권에서 아주 흔한 이름인 '존'에게 전화해(Call, John)라고 말한다 치자. 내게 실제로 알맞은 '존'은 한 사람뿐이다. 이 명령을 실제로 작동하게 만들면 매일 혁신으로 이어질 수 있다. 매우 도전적인 일이다. 이게 (기술을) 진짜 쓰기 쉽게 만드는 힘이다."

- '알렉사'를 만든 아마존과 손잡은 이유는 무엇인지 [관련기사 ☞ MS-아마존, AI 음성비서 상호 연동한다]

"우리는 세상에 서로 다른 전문지식이 수없이 많다고 생각하기 때문에, (다른 분야 사업자와 협력함으로써) 우리가 더 많은 걸 할 수 있는 큰 기회가 있다고 봤다. 우리의 강점은 사무실에서 오피스 제품과 서비스를 실사용하는 사용자에게 발휘된다고 생각한다.

MS가 전자상거래 업체가 되진 않을 거다. 그래서 아마존, 월마트같은 상대와 파트너십을 활용해 어시스턴트가 필요한 모든 목적에 맞는 광범위하고 다양한 기능을 작동하게 할 수 있다. 우리는 그런 영역에서 가치를 본다."

관련기사

- 다른 음성 및 자연어 전문가들과도 협력할 수 있나

"그건 답변할 수 없다."