
韓国科学技術院(KAIST)は1月27日、KAISTの研究者らが異なる人工知能(AI)モデル間で学習した知識を効率的に移植できる新技術を開発したと発表した。
KAISTのキム・ヒョンウJ (Hyunwoo J. Kim)教授(左)と研究チームメンバーら
近年、画像とテキストを同時に理解する視覚言語モデル(VLM)をはじめ、マルチモーダルAIが急速に発展している。これらのモデルは大量のデータを事前学習することで高い性能を発揮する一方、新しいモデルが登場するたびに特定分野の知識を再度学習させる必要があり、それにかかる膨大なデータと高額なコストが課題となっている。既存の適応技術では、モデル構造が異なると知識の再利用が難しく、複数モデルの併用によりメモリと計算コストが増大するといった制約があった。
研究チームはこうした問題を解決するため、モデルの構造や規模に依存せずに知識を転移できる適応技術「TransMiter」を提案した。この手法は、AIの内部構造を直接変更するのではなく、同一の質問に対する出力結果を基に、学習過程で得られた「ノウハウ」を別のモデルに伝える点が特徴である。異なるアーキテクチャのAIモデル間でも知識を即座に活用でき、再学習の必要性や処理速度の低下をほぼ生じさせない。
TransMiter:モデルの構造やサイズなどに関係なく再利用、転用可能な適応技術
(出典:いずれもKAIST)
本研究は、従来は困難とされてきたモデル非依存の知識移植を初めて実証した点で意義が大きい。繰り返し行われてきた事後学習の負担軽減に加え、大規模言語モデル(LLM)を用途に応じて更新する「知識パッチ」技術としての応用も期待される。
研究を主導したKAISTのキム・ヒョンウJ (Hyunwoo J. Kim)教授は、急速に進化する大規模モデルが登場するたびに必要だった再学習コストを大幅に削減できることを説明し、専門知識を柔軟に追加できる可能性を示した。研究成果はAI分野の主要国際会議AAAI 2026で口頭発表された。
サイエンスポータルアジアパシフィック編集部
発表論文: Song et al. (2026) Transferable Model-agnostic Vision-Language Model Adaptation for Efficient Weak-to-Strong Generalization
参考サイト(外部サイト):
● 韓国科学技術院(KAIST)
https://news.kaist.ac.kr/newsen/html/news/?mode=V&mng_no=57730
JST
Copyright © Japan Science and Technology Agency