[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

조성현 스노우플레이크코리아 전무

전문가 칼럼입력 :2024/04/22 09:48

조성현 스노우플레이크코리아 전무

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다.

조성현 스노우플레이크코리아 전무

생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다.

파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 ‘파인 튜닝’을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다.

챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 ‘라마’가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다.

■ LLM에 대한 이해

범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다.

작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다.

도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다.

앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다.

LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다.

LLM이 문맥을 이해하는 구조

때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다.

여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다.

이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다.

파인 튜닝과 RAG를 동시에 활용한 LLM의 정확도(초록색)가 가장 높게 나타났으며, 기본 모델에 RAG만 활용한 것(빨간색)이 근소한 차이로 뒤를 이었다.

■ 기업 환경에서 활용할 수 있는 생성형 AI

LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다.

1. 콘텐츠 생성 간소화 

생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다.

2. 논리적 추론 엔진으로 활용

AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다.

3. 언어 번역 정확도 개선

다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다.

4. 검색 및 요약

LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다.

관련기사

앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다.

다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.