텍스트·이미지 모두 이해하는 멀티모달 모델…한국어 벤치마크 최고 성능
고성능·저비용 구현 가능한 MoE 모델도 함께 공개…AI 생태계 확장 나서

[사례뉴스=김주연 인턴기자] 카카오는 국내 공개 모델 중 최고 성능을 지닌 경량 멀티모달 언어모델과 MoE(Mixture of Experts) 구조의 언어모델을 국내 최초로 오픈소스로 공개했다고 24일 밝혔다.

카카오, 국내 최초 MoE 모델 오픈소스 공개[카카오 제공]
카카오, 국내 최초 MoE 모델 오픈소스 공개[카카오 제공]

허깅페이스를 통해 공개된 모델은 멀티모달 언어모델 ‘Kanana-1.5-v-3b’와 MoE 언어모델 ‘Kanana-1.5-15.7b-a3b’다. 카카오는 정부의 ‘독자 AI 파운데이션 모델 프로젝트’에 참여해온 경험과 자체 서비스 운영 역량을 바탕으로, AI 기술 접근성을 높이고 국내 AI 생태계 경쟁력을 강화하겠다는 방침이다.

‘Kanana-1.5-v-3b’는 텍스트와 이미지를 함께 처리할 수 있는 멀티모달 모델로, 지난 5월 공개된 Kanana 1.5 모델을 기반으로 개발됐다. 이용자의 질문 의도를 정확히 파악하는 지시 이행 능력과 한국어·영어 이미지 이해 성능이 강점이며, 경량 모델임에도 GPT-4o에 견줄 만한 수준의 성능을 보였다고 카카오는 설명했다. 한국어 벤치마크에서 유사 규모의 국내외 공개 모델 중 최고 성능을 기록했으며, 지시 이행 능력에서도 국내 모델 대비 128% 수준의 성과를 보였다.

이 모델은 이미지 인식, 창작, 문화유산 및 관광지 분석, 도표 이해, 수학 문제풀이 등 다양한 분야에 활용 가능하다. 함께 공개된 ‘Kanana-1.5-15.7b-a3b’는 MoE 구조를 적용한 모델로, 특정 작업에 최적화된 일부 전문가 모델만 작동해 연산 자원을 효율적으로 활용할 수 있다. 이 구조는 비용 절감과 고효율 서비스 구현에 유리하며 최근 글로벌 AI 모델 트렌드로 자리잡고 있다.

카카오는 이번 오픈소스 공개를 통해 경량성과 효율성을 갖춘 AI 모델 개발의 기준을 제시하고, 더 많은 연구자들이 고성능 AI 기술에 접근할 수 있는 기반을 마련하겠다고 밝혔다. 앞으로도 모델 고도화 및 스케일업을 통해 글로벌 수준의 초거대 모델 개발에 도전할 계획이다.

카카오 김병학 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

ⓒ 사례뉴스는 비즈니스의 다양한 사례를 공유합니다. 출처를 표기한 다양한 인용과 재배포를 환영합니다.