- 전체 토큰 4,920억개, 한국어 토큰 2,840억개로 학습 마쳐… 파라미터 131억개 달해, 내달 ‘첫 선’
- 오픈소스 아닌 자체 개발 생성형 초거대 언어모델… 엔비디아 H100 국내 최초 입고로 개발에 속도
- 온프레미스형 제공으로 보안 우려 잡고 문서 초안 생성, 요약에 특화… B2B, B2G 향 초거대 AI 표방
<이미지. 코난테크놀로지가 이달 17일 기준 파라미터 131억개에 도달하며, 내달 자체개발 초거대 언어모델 ‘코난 LLM’ 출시에 성큼 다가섰다.>(제공: 코난테크놀로지)
인공지능 소프트웨어 전문기업 코난테크놀로지(대표이사 김영섬 www.konantech.com)가 파라미터 131억개로 자체개발 초거대언어모델(Large Language Model, 이하 코난 LLM) 출시에 속도를 내게 됐다.
코난테크놀로지는 17일 기준 전체 학습 토큰 4,920억개, 한국어 토큰 2,840억개로 학습을 마쳤다. 총 파라미터(매개변수)는 131억개에 달한다. 13.1B 파운데이션 모델은 파인튜닝을 거쳐 내달 정식 출시되며, 8월 1일 학습을 시작해 10월 중 마무리할 코난 LLM 파운데이션 모델의 파라미터는 400억개다. 전체 토큰 6,000억개, 한국어 토큰은 4,000억개로 준비 중이다.
코난 LLM은 온프레미스 제공으로 생성형 AI의 보안과 기밀유출 우려를 방지하고, B2B, B2G향 초거대 AI를 표방하는 점이 특징이다. B2C 기반의 챗GPT의 경우, 질의시 기업의 중요 기밀이 외부로 유출되는 것이 허들로 작용한다. 코난 LLM은 이러한 점을 해소하고, 해당 기업이나 기관에 최적화된 지도학습 및 강화학습을 거쳐서 문서 초안 생성, 문서 요약, 질의, 응대 등에 사용시 뛰어난 성능을 제공하겠단 계획이다. 특정 기업의 API나 오픈소스 기반이 아닌 B2B, B2G 특화로 자체 개발된 생성형 언어 모델은 코난 LLM이 처음으로 출시했다.
합리적인 비용으로 고객 부담을 낮추는데도 신경 썼다. 통상 생성형 AI 학습비용은 토큰개수보다는 파라미터 개수에 더 크게 비례함에 따라 모델 파라미터의 사이즈는 줄이면서 성능을 유지하는 것이 B2B와 B2G 제품에서 무엇보다 중요하다. 코난 LLM은 기업 니즈에 따라 13.1B와 40B 파라미터 모델 중 해당 기관에 최적화된 사양을 선택하고 강화학습을 거쳐 비용은 합리적으로, 성능은 고도화 시키겠다는 것.
코난테크놀로지는 생성형 AI 시장에 선도적으로 대응하고자 지속적으로 개발인력을 증원해 왔고, 2007년부터 운영중인 실시간 AI 분석 서비스 ‘PulseK’(펄스케이)를 통해 205억건 이상의 고품질의 한국어 데이터를 축적하고 있다. 인공지능 장치 산업으로서의 한계도 뛰어 넘었다. 올 초 NVIDIA(엔비디아)의 H100 장비 12대를 발주해 지난달부터 순차적으로 입고 중이다. H100은 AI 훈련속도가 가장 빠른 GPU모델이다. 회사의 선구안으로 발주와 입고 둘 다 국내에서 가장 먼저 진행됐다.
국내 여러 기업들이 초거대 AI 확보를 위해 개발경쟁에 뛰어든 상황에서 코난테크놀로지는 인력, 데이터 그리고 파라미터 기반의 초거대언어모델의 학습에 필수적인 GPU 서버까지 적시에 확보함으로써 개발 시간은 줄이고 기술 격차 확대는 더욱 견고히 하고 있다.
김영섬 코난테크놀로지 대표이사는 "자체개발 초거대 언어모델 확보를 위해 24여년간의 기술력을 쏟아 부었다”며 “기업과 기관에 최적화된 모델로 시장 요구에 부응하고, 온프레미스 형태로 보안을 강화시켜 생성형 AI 생태계 구축을 이끌겠다.”고 포부를 전했다.
한편 코난테크놀로지는 내달 코난 LLM 정식출시를 기념해 기술 시연회를 열 계획이다.(끝)