AI는 사이버 보안을 승리로 이끌 것인가

보안 위협 급증 속 AI 활용해 인력부담 해소 기대

컴퓨팅입력 :2016/07/18 15:13    수정: 2016/07/18 15:20

사이버 보안 전쟁은 여러 측면에서 해커에게 패배했다. 보안 위협은 갈수록 더 효과적이고 조직화되면서 기업의 보안조직과 싸움에서 승리했고, 해커와 싸울 능력있는 사이버 보안 전문가는 부족하다. 이런 가운데 더 많은 보안인력을 채용하는 것보다 인공지능, 머신러닝, 딥러닝 등의 기술을 활용해야 한다는 주장이 제기되고 있다.

미국 지디넷 컬럼니스튼 대니 팔머는 14일 ‘AI가 사이버위협과 전투의 조류를 바꿀 핵심인 이유(Why AI could be the key to turning the tide in the fight against cybercrime)’란 글을 올렸다. [원문 바로가기]

그에 따르면, 학습하는 기계가 보안 전문가의 능력을 완전히 대체하는 건 아니다. 그러나 인공지능 기술은 보안 전문가에게 기본적인 업무에 더 집중할 여유를 줄 수 있다.

포스포인트의 CISO 닐 새커는 “인지능력을 가진 범용 AI의 형태를 말하는 게 아니라, 머신러닝 능력에 대한 좁은 의미의 AI를 말하고 있다”며 “보안기업은 사람이 택하지 않아도 좋은 의사결정을 지도적 학습(supervised ㅣearning)을 통해 하는 것을 검토하고 있다”고 말했다.

현재 사이버보안 인력은 잠재적인 위협 활동에 대해 경고를 받고 대응하는데 많은 시간을 할애하고 있다. 보안인력은 잘못된 경고들을 접할 때 반복적이고 시간을 소비하는 절차에 시달린다.

최근엔 사전에 잠재적 보안 위협을 경고해주는 시스템이 많다. 이 경고를 접수한 보안인력은 이벤트를 분석하고, 위험성과 중요성을 판단해야 한다. 이 분석 작업은 쉽지 않고, 수많은 이벤트를 분석할 충분한 인력도 없다.

이 분석 작업은 사람에게 매우 피곤한 일이지만, 무시할 수도 없는 일이다. 반면, AI는 악성코드와 부적절한 활동의 기류를 더 많이 알아챌 수 있다. 기계는 위협을 탐지하고, 보안 전문가는 해커와 싸우는 일 자체에 집중할 수 있을 것이다.

사기탐지 머신러닝 개발로 유명한 스티븐 위트워스 래블린테크놀로지 데이터사이언티스트는 “사이버보안의 머신러닝은 명백하게 허위인 사안에 사람을 매달리게 할 필요를 줄여준다”며 “머신러닝 모델을 잘 학습시키는 것은 사기든 이례적이든 의심되는 것만 보여주므로 더 정확한 정보를 받게 해준다”고 밝혔다.

래블린은 머신러닝 알고리즘이 특정 분야에서 사람보다 더 낫다고 판단하고 있다. 사람처럼 실수하지 않고 이상한 지점을 포착하는데 머신러닝 코드가 특화돼 있다는 것이다.

스티븐 위트워스는 “머신러닝은 보안인력에게 더 복잡한 방법으로 생각하게 해준다”며 “만약 당신이 10개 이상의 질문으로 이어지는 의사결정구조를 생각한다면, 두뇌로 암호화하는 건 매우 어려운 일”이라고 설명했다.

그는 “반면 동일한 일을 할 수 있는 알고리즘이 있다면, 훨씬 더 효율적으로 할 수 있고, 전에 갖지 못했던 결과를 제공받을 것”이라고 덧붙였다.

해킹과 사이버보안위협 전쟁에 머신러닝을 사용하려는 기업은 늘어나고 있다. 이들은 이미 딥러닝 활용으로 나아가고 있다. 이스라엘의 딥인스팅트란 회사는 사이버보안에 딥러닝을 적용한 첫 회사로 알려져있다.

딥인스팅트 알려지지 않은 위협을 탐지하는데 초점을 맞추고 있다. 악성 소프트웨어 개발자가 탐지를 회피하는 창조물을 만드는 건 단순하다. 코드의 일부만 바꿔도 탐지를 피할 수 있다. 딥인스팅트에 따르면, 딥러닝은 이같은 방식을 무력화하는데 힘을 발휘한다. 공격자가 일부 코드를 바꿔도 딥러닝 알고리즘이 감지할 수 있다는 게 이 회사의 주장이다.

만약 딥러닝 기술이 그토록 좋다면, 왜 주류로 자리잡지 못했을까. 이는 딥러닝 기술의 진입장벽이 매우 높기 때문이다. 구글, 아마존, 페이스북 같은 수준이 아니라면 딥러닝 알고리즘을 이해하고, 채택하는 건 너무 어렵다.

기술의 급격한 발전에 따라 툴이 등장하고, 머신러닝과 AI은 사용자 저변을 넓혀하고 있다. 기술은 발전하고 사용에 드는 비용은 저렴해지는 추세다. 굳이 기술 내부를 속속들이 알지 못해도 대규모 데이터를 분석할 수 있게 됐다.

그러나 인공지능 기술에 대한 도덕적 판단이 향후 산업 바전을 좌우할 큰 문제로 대두된다. 인공지능을 통한 자동화 수준이 높아질수록 ‘쓸모있냐, 없냐’의 문제에서 ‘옳은가, 그른가’의 문제로 바뀌기 때문이다.

인력 비용 감축 문제는 가장 큰 논쟁거리다. 구조화된 학습환경에서 가장 적절하고 사용가능한 데이터를 누가 가질 것인가, 누가 기계를 학습시킬 것인가 등도 화두로 떠오를 것이다.

닐 새커 CISO는 “사이버위협 분야도 AI에서 비용 효율에 초점을 맞출 것”이라며 “해커가 우리를 앞서 있고, 그들을 따라잡기 위해 AI가 필요하다는 점도 강조돼야 한다”고 지적했다.

한편으로 머신러닝 기술에 대한 비판적 입장도 있다. 아직 인공지능이라 부를 존재는 없다는 것이다. 이들은 보안업체의 과대포장 마케팅을 주의하라고 주장한다.

카스퍼스키랩의 유진 카스퍼스키는 지난 7일 블로그에서 “머신러닝은 새로운 게 아니며, AI로 볼 수 없다”고 주장했다.

그는 “머신러닝은 사이버 공격과 싸우기 위해 최고수준의 열정과 재능, 전문직업의식으로 작성한 컴퓨터 알고리즘일 뿐”이라며 “머신러닝을 AI로 부르는 건 좋게 말하면 오도이고, 나쁘게 말하면 목적있는 사기”라고 적었다.

관련기사

그는 “만약 누군가 진짜 AI에 투자한다면, 바로 일반 대중에 알려질 것”이라며 “그것은 사이버보안이란 작은(그러나 매우 중요한) 영역을 넘어 훨씬 더 거대한 충격을 줄 것”이라고 덧붙였다.

닐 새커 CISO도 유진 카스퍼스키의 의견에 동감을 표했다. 그는 “몇몇 벤더가 실재하지 않는 AI를 말하고 있다”고 말했다. 그러면서 “그러나 조직 안에서 AI는 가장 큰 고충 중 하나를 위한 미래를 보여준다”고 낙관적 입장을 폈다.