2025年11月 4日公開

IT用語辞典

LoRA

制作協力:株式会社インプレス

読み方 : ろーら
英語正式表記 : Low-Rank Adaptation

LoRA

LoRA(Low-Rank Adaptation)とは、事前学習済みの大規模モデルを効率的にファインチューニング(微調整)するための手法である。

ファインチューニングとは、事前学習済みのニューラルネットワークモデルを新しいタスクに適応させるため、追加データで再学習する手法を指す。この手法を用いることで、特定の知識やドメインに特化した企業向けチャットボットや、特定テーマに強い画像生成AIなどを構築することができる。

従来、LLM(大規模言語モデル)や画像生成モデルのファインチューニングでは、多くの場合でモデル全体のパラメータを更新する必要があり、膨大な計算コストと時間が課題となっていた。LoRAは、この課題を解決するために、事前学習済みモデルの重み行列を固定し、その重みに追加される更新部分を「低ランク行列の積」として表現する。そして、この低ランク行列のみを特定のタスク向けに学習し、推論時に元の重みに加算して利用する。これにより、学習パラメータ数を大幅に削減でき、大規模モデルのファインチューニングにかかる計算コストや時間を抑えつつ、高い適応性能を維持することが可能になる。

LoRAは、LLMや画像生成AIだけでなく、音声認識や機械翻訳など、幅広い分野で活用が進んでいる。一方で、学習に使うデータセットの量や偏りによっては、過学習が発生する可能性があるため、適切なデータ選定や正則化などの工夫が必要となる。

この記事を社内で共有し、課題解決のヒントにお役立てください

お客様マイページの「連絡ボード」機能を使って、同じ会社のメンバーと簡単にこのページを共有できます。社内で情報を共有し、組織全体の課題解決や業務効率の向上にお役立てください。

社内のメンバーに共有する(企業で共有する)

  • (注)連絡ボードを利用するには企業設定が必要です。