リコー、オンプレミス環境向け高性能日本語LLMを開発 エフサステクノロジーズと連携し提供開始

株式会社リコーは、自社で開発している日本語大規模言語モデル(LLM)シリーズの新しいモデルとして、Googleのオープンモデル「Gemma 3 27B」をベースにした高性能なLLMを開発しました。このLLMは、会社のサーバーなど(オンプレミス環境)に導入するのに特に適しています。

リコー独自の技術で高性能を実現

今回開発されたLLMは、リコー独自の「モデルマージ」という技術を活用し、もとになるモデルから大きく性能を向上させています。モデルマージとは、複数の学習済みLLMを組み合わせて、より高い性能を持つモデルを作る新しい方法です。この技術により、大規模な計算資源がなくても手軽にモデル開発ができます。

具体的には、およそ1万5千件の指示に従うための学習データを使って追加学習したモデルから、対話能力に関する情報(Chat Vector)などを抽出し、「Gemma 3 27B」にリコー独自の技術で組み合わせています。

このモデルは、270億というコンパクトなパラメータ数でありながら高い性能を持ち、一般的なパソコンサーバーなどでも動かすことができるため、プライベートなLLMを低コストで導入できます。また、コンパクトであることから、LLMの課題である高い電力消費と環境への負担を減らすことにもつながります。

最先端モデルと同等の性能を確認

同じ規模のパラメータ数を持つLLMとの比較評価では、米OpenAIの「gpt-oss-20b」をはじめとする最先端の高性能モデルと同等の性能があることが確認されました。このモデルは、ユーザーが使う際の快適さを重視した「非推論モデル」ならではの素早い最初の応答(初期応答性)を実現しながら、優れた文章作成能力も持ち合わせており、ビジネスでの利用に適しています。

RICOH LLM (27B)とPrivate AI Platform on PRIMERGYのシステム構成図

評価結果の詳細

複雑な指示やタスクを含む日本語の代表的なベンチマーク「ELYZA-tasks-100」と、日本語での複数回のやり取りの能力を評価する「Japanese MT-Bench」を使って性能を評価しました。

その結果、リコーが開発したLLMは、日本語ベンチマークにおいて、米OpenAIのオープンウェイトモデル「gpt-oss-20b」などの高性能モデルと同じくらいの高いスコアを示しています。

AIモデルの性能比較表

  • Japanese MT-Bench: 複数回の対話設定のデータセットで、コーディング、抽出、人文科学、数学、推論、ロールプレイ、STEM、ライティングなどのタスクで評価されます。スコアは1から10までです。

  • Elyza-tasks-100: 複雑な指示やタスクを含むデータセットで、要約の修正、意図の理解、複雑な計算、対話の生成など幅広いタスクで評価されます。スコアは1から5までです(ここではJapanese MT-Benchとの平均スコアを出すために2倍にして比較しています)。

エフサステクノロジーズとの連携で提供

このLLMは、お客様の要望に応じて個別に提供されます。さらに2025年12月下旬からは、エフサステクノロジーズ株式会社が提供するオンプレミス環境向けの対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Small モデル)」に、このLLMの量子化モデルと生成AI開発プラットフォーム「Dify(ディフィ)」が事前にインストールされた状態で、リコージャパン株式会社から提供されます。

これにより、お客様はDifyを活用して、自分の会社の業種や業務に合わせた生成AIアプリケーションなどを、プログラミングの知識がなくても簡単に作成できます。また、リコージャパンが提供する「Dify支援サービス」によるサポートも受けられるため、社内にAIの専門家がいなくても安心して生成AIを業務に活用し始めることが可能です。

エフサステクノロジーズ株式会社の代表取締役社長 CEO 保田 益男氏は、リコーの高性能LLMと自社のAI基盤を組み合わせたオンプレミスAIソリューションを、リコーグループの販売網を通じて多くのお客様に提供できることを歓迎しています。

株式会社リコーのAIサービス事業本部 本部長 梅津 良昭氏は、Googleの優れた基盤モデル「Gemma 3 27B」をもとに、オンプレミス導入に最適な日本語LLMを開発したこと、そしてエフサステクノロジーズとの協力により製品化が実現したことに触れ、3社の技術と強みが結集したこの製品が、リコージャパンの提供力と伴走支援によってお客様の課題解決に貢献できると述べています。

今後の展望

リコーは今後、LLMの推論性能(論理的に考えて結論を導き出す能力)や、特定の業種に特化したモデルの開発を進める予定です。さらに、リコーが得意とする「マルチモーダル性能」(テキストだけでなく、画像や音声など複数の種類の情報を扱える能力)と組み合わせることで、LLMのラインナップをさらに強化していく方針です。

リコーはこれからもお客様に寄り添い、業種や業務に合わせて利用できるAIサービスを提供することで、お客様が取り組むオフィスや現場のデジタルトランスフォーメーション(DX)を支援していきます。

リコーのAI開発について

リコーは1980年代にAI開発を始め、2015年からは画像認識技術を使った深層学習AIの開発を進めてきました。製造分野での外観検査や振動監視などに適用しています。2021年からは自然言語処理技術を活用し、オフィス文書やお客様の声(VOC)の分析を通じて業務効率化や顧客対応を支援する「仕事のAI」の提供を開始しました。

2022年からは大規模言語モデル(LLM)の研究・開発にもいち早く着手し、2023年3月にはリコー独自のLLMを発表しています。その後も、700億パラメータという大規模ながらオンプレミス環境でも導入できる日英中3言語対応のLLMを開発するなど、お客様のニーズに応じた様々なAIの基盤開発を行っています。リコーはLLM開発において、独自のモデルマージ技術(特許出願中)をはじめとした、効率的な手法・技術を活用することで、お客様の用途や環境に最適な、企業独自のプライベートLLMを低コストかつ短期間で提供しています。

画像認識や自然言語処理に加え、音声認識AIの研究開発も進め、音声対話機能を持つAIエージェントの提供も始めています。

×