"구글은 104개 언어 번역하는 번역기"

법무법인 율촌 주최 'AI포럼'서 서정연 교수 강연

컴퓨팅입력 :2018/12/16 12:05    수정: 2018/12/16 16:40

"구글은 번역을 어떻게 할까요? 구글은 104개 언어를 번역하는 하나의 번역기입니다. 특히 놀라운 건 번역기가 하나라는 겁니다. 자연어처리는 컴퓨터의 궁극적 연구 목표중 하나이고, 현재 각광받고 있는 딥 뉴트럴 네트웍스(DNN)은 방대한 학습 데이터가 필요합니다."(서정연 서강대학교 컴퓨터공학과 교수, 대외부총장)

"우리가 개발한 '엑소브레인(Exobrain)이 장학퀴즈 대결에서 압승하는 등 국산 AI 자주권 확보 가능성을 입증했습니다. 딥러닝이 현재 혁신적 인고지능 기술 발전을 주도하고 있는데 '머신러닝(ML, Maching Learining) 민주화'로 개인 및 스타트업의 진입 장벽이 낮아지고 있습니다."(박상규 ETRI SW·콘텐츠연구소 지능정보연구본부장)

법무법인 율촌(대표 변호사 윤세리)이 한국경제신문과 개최한 '아시아미래 AI포럼'이 지난 13일 서울 삼성역 인근 그랜드 인터컨티넨탈 파르나스 38층에서 관계자 30여명이 참석한 가운데 열렸다.

행사에는 컴퓨터 자연어 처리 국내 대가로 꼽히는 서정연 서강대 교수가 'AI 자연어 처리 분야 기술 현황 및 한국 기술 현주소'를 주제로, 또 박상규 ETRI 지능정보연구본부장이 '세계 AI 연구 동향 및 ETRI 연구 현황'을 주제로 각각 강연을 했다.

먼저 강연을 한 서 교수는 자연어와 자연어 처리의 차이를 시작으로 이야기했다. 자연어는 사람들이 사용하는 언어로 한국어, 영어, 중국어, 일본어 등을 말한다. 반면 자연어 처리(Natural Language Processing)는 인간의 언어를 분석, 이해, 생성 할 수 있는 컴퓨터 시스템 개발 연구를 뜻한다.

자연어 처리 활용처는 다이얼로그 시스템, 자동 번역, 텍스트 자동 분석이 대표적이다. 다이얼로그 시스템은 사람들과 일상 언어로 대화를 할 수 있는 시스템을 말하는데 서 교수는 "굉장히 중요한 연구 분야"라고 강조했다.

서정연 서강대 교수가 '자연어 처리'를 주제로 법무법인 율촌이 주최한 'AI포럼'서 강연을 하고 있다.

인간의 방대한 지식이 녹아 있는텍스트 자동 분석 역시 중요한 연구 분야인데 질의응답(Q&A) 시스템과 IBM의 유명한 '왓슨', ETRI가 만든 '엑소브레인(Exobrain)' 등이 여기에 해당한다.

서 교수는 "특히 형태소 분석이 어렵다"고 덧붙였다. 즉, 한국어로 배라는 단어는 영어로 ship, belly, pear, trophy 등 여러 단어가 해당, 이 같은 '모호성(ambiguity)'으로 형태소 분석이 어렵다는 것이다. 중국어와 일본어는 띄워쓰기를 안하는데 어절 단위로 띄워쓰기를 하는 한국어 특성도 형태소 분석의 한 어려움이다.

자연어 분석은 형태소 분석, 구문 분석, 의미 분석, 담화 분석 등이 있다 서 교수는 "모든 분석 단계에서 '모호성'이 발생한다"며 자연어 처리의 어려움을 토로했다.

텍스트를 분석해 특정 의미를 갖는 엔터티(entity)들과 그들간의 관계를 찾아내는 작업이 '정보 추출(Information Extraction)'인데 "이렇게 추출한 정보를 지식으로 활용해서 질의 응답과 의료 및 법률 자문 기계를 만든다"고 서 교수는 설명했다.

음성인식과 음성합성간 차이도 설명했다. 음성인식은 음성 시그널을 분석해 언어로 변환하는 기술이고, 음성합성은 언어를 음성으로 변환하는, 입력으로 주어진 심볼 스트링(문장)을 소리로 합성해 내는 기술을 말한다.

서 교수는 구글 번역기는 한국어를 포함해 영어, 중국어, 일어 등 총 104개 언어를 번역하는 하나의 번역기라면서 인코더-엔코더 방식의 기계 번역을 설명했다.

그는 컴퓨터가 인간과 대화하기 위해 필요한 '상식 지식(common sense knowledge)'를 습득할 수 있을까?, 또 어떤 데이터로부터 어떤 방식으로 학습할 수 있을까?라는 질문을 던지며 "이것이 자연어 처리의 어려운 문제이고, 인공지능 분야의 오래된 숙제"라고 말했다.

이어 서 교수는 "결론적으로 자연어처리는 컴퓨터의 궁극적 연구 목표 중 하나이며 현재 각광받고 있는 DNN은 방대한 학습데이터가 필요하다"면서 "인간의 다양한 지식들을 (기계가) 학습하는 것은 아직은 매우 어렵다"며 강연을 맺었다.

두번째 강연자로 나선 박상규 본부장은 인공지능 국내외 동향과 그동안 ETRI가 연구해 온 인공지능 결과물을 소개했다. 구글 페이스넷(FaceNet) 같은 얼굴인식 기술이 정확도가 99%가 넘을 만큼 음성과 이미지 인식 분야의 획기적 성능 향상이 이뤄지고 있다고 설명한 박 본부장은 "사물의 이해 측면에서 아직은 초보 수준이라는 한계도 있다"고 진단했다.

이어 그는 향후 AI 연구 방향으로 추론 과정을 체계적을 설명하는 '설명적 AI(Explainable AI)'와 인간 지식에 의존하지 않는 '언슈퍼바이즈드 러닝(Unsupervised Learning)' 두가지를 들었다.

서 본부장은 플랫폼 전쟁을 언급하며 "AI는 전문기업에 의해 구현되고, 플랫폼을 통한 서비스 형태로 활용하는 환경이 도래했다"면서 "스마트폰 기반 또는 거치형 음성인식 개인비서 서비스가 세계적으로 선점 경쟁이 일어나고 있다"고 설명했다.

인공지능이 현재 사용하기 어렵지만 앞으로는 앱을 다운로드 받는 것 처럼 쉬워지는 '머신러닝 민주화(ML 민주화"가 일어날 것이라고 예상하면서 "개발자 친화적 툴, 특화된 칩셋, 고도로 확장 가능한 컴퓨팅 플랫폼, 알고리즘 진화 등으로 머신러닝 민주화가 이뤄질 것"이라고 내다봤다.

박상규 ETRI 본부장이 강연을 하고 있다.

AI 분야 해외 빅6로 구글, IBM, 아마존, 마이크로소프트, 페이스북, 딥마인드를 들며 "한국기업도 통번역과 개인비서 등 일부 응용 시장에서 글로벌 경쟁이 가능하다"고 예상했다.

박 본부장은 자연어 처리 질의응답 기술 개발을 위한 글로벌 경쟁이 시작됐다면서 ETRI가 개발한 인공지능 플랫폼 '엑소브레인'도 설명했다.

엑소브레인 비전이 "변호사, 변리사 같은 전문가와 지식 소통이 가능한 인공지능 SW 개발"이라면서 "엑소브레인이 장학퀴즈 대결에서 압승하는 등 국산 AI 자주권 확보 가능성을 입증했다"고 강조했다.

'엑소 브레인'은 국내외 표준 6건, SW 보급 34건, 머신러닝 학습데이터 보급 252건, AI 인력 양성 같은 성과도 거뒀다. 또 원천기술 고도화와 기업(LG CNS, SKT, 카카오, 솔트룩스, 마인즈랩, 한컴, 마이다스IT, 브릿지텍)에 기술을 이전, 솔트룩스의 아담AI 플랫폼과 마인즈랩의 마음AI 플랫폼 출시 등이 이뤄졌다.

ETRI는 엑소브레인 기술을 공개, 오픈API로 서비스 하고 있다. 2017년 10월 30일에 서비스를 시작했는데 사용량이 하루 평균 1만8100건에 달한다.

엑소브레인 적용 분야도 속속 나오고 있다. 대표적인 적용 분야가 국회도서관의 지능형 입법지원 서비스로 올해 인공지능 입법지원 시스템 개발이 이뤄졌고 내년에 상용화 될 예정이다. 특허청의 특허정보원에도 활용, 역시 내년에 지능형 특허 Q&A 서비스 도입이 이뤄질 계획이다.

한글과컴퓨터가 상용화한 자동통번역 플랫폼 '지니톡'에도 엑소브레인 기술이 녹아들어 있다. 한컴은 지니톡을 2018 평창동계올림픽에 적용했는데, 당시 8개국 언어로 서비스했다.

박 본부장은 향후 지니톡 연구방향에 대해 "실시간 동시통역을 위한 비정형 연속발화 동시 통역 기술을 확보할 계획"이라면서 "단말탑재와 웨어러블 통역 등으로 상용화해 응용 기술에서 경쟁력을 확보할 예정"이라고 설명했다.

박 본부장은 음성대화처리 플랫폼 '지니 튜터'도 소개했다. '지니 튜터'는 영어와 한국어 학습을 위한 자유발화형 음성대화처리 원천 기술이다.

비정형 자연어 음성인식 원천기술 개발과 주제별 자유대화 처리 원천 기술 개발, 문법 과 표현 오류 교정 및 자동 평가가 가능한 자유대화형 언어학습 기술 개발 등을 추구하고 있다. 궁극적으로 음성 대화처리 원천기술 기반의 언어학습 서비스를 구현하는 게 목표다.

박 본부장은 "발음평가 중심의 단순 반복 사이버 학습을 원어민 교사 학습 수준으로 대체하는 것이 목표"라면서

관련기사

"지난 9월 30개 대화를 주제로 시범서비스를 시행했고, 다문화 가정 지원을 위해 외국인을 위한 한국어 학습으로 확대할 계획"이라고 밝혔다.

이날 박 본부장은 AI를 이용한 영상처리 기술인 '딥뷰'도 설명했다. '딥뷰'는 영상 데이터에 포함된 내용과 의미를 이해하는 시각지능 SW이자 플랫폼이다. CCTV 영상 분석과 방송 콘텐츠 분석, 행동인식 기반 투기행위 감지, 구간 분할 등에 적용할 예정이다.