인공지능(AI) 기술이 고도화될수록 새로운 모델이 등장할 때마다 반복되는 ‘재학습’ 비용과 시간이 산업 전반의 부담으로 작용해 왔다. 이러한 한계를 근본적으로 해결할 수 있는 AI 모델 간 지식 이식 기술을 국내 연구진이 개발했다. 앞으로는 더 성능이 좋은 AI가 등장하더라도, 이미 학습된 전문 지식을 처음부터 다시 가르칠 필요가 없게 될 전망이다.
KAIST는 전산학부 김현우 교수 연구팀이 고려대학교 연구팀과 공동연구를 통해, 서로 다른 인공지능 모델 사이에서도 학습된 지식을 그대로 이전할 수 있는 ‘지식 이식(knowledge transfer)’ 기술 ‘TransMiter’를 개발했다고 밝혔다.
새로운 AI가 나와도 ‘다시 학습’ 필요 없다
최근 인공지능 분야에서는 이미지와 언어를 동시에 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 확산되고 있다. 이러한 모델은 적은 데이터로도 새로운 분야에 적응할 수 있다는 장점이 있지만, 새로운 모델이 등장할 때마다 적응 과정을 처음부터 반복해야 하는 구조적 비효율이 지속적으로 지적돼 왔다.
기존의 적응 기법들은 모델 구조가 조금만 달라져도 재사용이 어렵거나, 여러 모델을 동시에 운용해야 해 메모리와 연산 비용이 급증하는 한계를 안고 있었다.
‘출력 결과’만으로 지식을 옮기는 TransMiter
연구팀이 제안한 TransMiter는 이러한 문제를 해결하기 위해 모델의 내부 구조를 건드리지 않고, AI의 예측 결과(output)만을 활용해 학습된 적응 지식을 다른 모델로 전달하는 방식을 채택했다. 즉, 한 AI가 특정 과제를 수행하며 축적한 ‘경험과 노하우’를 정리해 주면, 구조와 크기가 전혀 다른 AI 모델도 이를 곧바로 활용할 수 있다.
이 방식은 복잡한 재학습 과정 없이도 지식 이전이 가능해 후학습(post-training)에 필요한 시간과 비용을 획기적으로 줄일 수 있다는 점에서 의미가 크다. 특히 모델 간 호환성 문제가 거의 없다는 점에서, 빠르게 진화하는 초거대 AI 환경에 적합한 기술로 평가된다.
초거대 AI ‘지식 패치’ 시대 연다
이번 연구는 그동안 재사용이 어렵다고 여겨졌던 AI의 적응 지식을 모델 종류와 무관하게 이전할 수 있음을 처음으로 실증했다는 점에서 주목된다. 이를 통해 특정 산업이나 전문 분야에 필요한 지식을 필요할 때마다 ‘패치’ 형태로 추가하는 초거대 AI 운영 방식이 가능해질 것으로 기대된다.
김현우 교수는 “이번 연구를 확장하면, 빠르게 발전하는 초거대언어모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training)의 비용을 크게 줄일 수 있다”며, “특정 분야의 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 설명했다.
이번 연구에는 KAIST 전산학부 송태훈 석사과정 학생, 이상혁 박사후연구원과 고려대학교 박지환 박사과정 학생이 공동 저자로 참여했으며, 연구 성과는 인공지능 분야 최고 권위의 국제 학술대회인 AAAI 2026에 구두 발표로 채택돼 1월 25일 공개됐다.
한편, 김현우 교수 연구실은 이번 논문을 포함해 구글 클라우드 AI와 공동 진행한 문서내의 테이블 이해를 고도화한 기술인 TabFlash 포함하여 해당 학회에 총 3편의 논문을 발표했다.
논문명은 Transferable Model-agnostic Vision-Language Model Adaptation for Efficient Weak-to-Strong Generalization이다. <저작권자 ⓒ 특허뉴스 무단전재 및 재배포 금지>
![]()
댓글
지식이식AI, TransMiter, 후학습절감, 초거대AI, 멀티모달AI, 지식패치 관련기사목록
|
많이 본 기사
|