最速クラスのマルチモーダルモデル。どこへでもデプロイ。

スピード、機能性、効率性を重視して設計された
マルチモーダル・ハイブリッドモデル。オンデバイスからクラウドまであらゆる環境で実行可能で、
エージェント処理、指示追従、データ抽出、RAG などのユースケースに最適です。

モデルのご紹介

Liquid Foundation Models は、動的システムと信号処理に基づく独自アーキテクチャである Liquid Neural Networks を活用し、あらゆるハードウェア上で、クラウドの内外を問わず、計算資源を大幅に抑えながら最先端レベルの知能を提供します。

オンデバイス
クラウド
ハイブリッド

テキストモデル

LFM は、軽量でカスタマイズ可能かつ計算効率に優れた構成で、あらゆる環境への導入において高い性能を発揮します。

オンデバイス
クラウド
ハイブリッド

ビジョン・言語モデル

視覚およびテキストの入出力を用いるマルチモーダルモデルで、低遅延かつデバイス特性を考慮したデプロイメントに適した機能を備えています。

オンデバイス
クラウド
ハイブリッド

オーディオモデル

音声およびテキスト生成のためのエンドツーエンド基盤モデル。低遅延向けに設計されており、わずか15億パラメータで高品質かつ応答性の高い対話を実現します。

LFM2 は、あらゆる場所で — 任意の CPU、NPU、GPU 上で — 動作するように設計されたハイブリッドモデル群であり、クラス最高レベルの速度、多言語対応、そしてマルチモーダル機能を備え、あらゆる規模の実環境への導入に対応します。

オンデバイス
クラウド
ハイブリッド

テキストモデル

LFM は、軽量でカスタマイズ可能かつ計算効率に優れた構成で、あらゆる環境への導入において高い性能を発揮します。

オンデバイス
クラウド
ハイブリッド

ビジョン・言語モデル

視覚およびテキストの入出力を用いるマルチモーダルモデルで、低遅延かつデバイス特性を考慮したデプロイメントに適した機能を備えています。

オンデバイス
クラウド
ハイブリッド

ナノモデル

特定のタスクや知識に特化した、小型のカスタマイズモデル。

LFM2.5 は、28 兆トークンの事前学習とスケールされた強化学習パイプラインによって LFM2 を拡張し、小型モデルの可能性の限界を押し広げます — テキスト、ビジョン、音声に対応し、クラウドの内外を問わずあらゆるデバイス上で信頼性の高い本番運用可能なエージェントのために設計されています。

オンデバイス
クラウド
ハイブリッド

テキストモデル

LFM は、軽量でカスタマイズ可能かつ計算効率に優れた構成で、あらゆる環境への導入において高い性能を発揮します。

オンデバイス
クラウド
ハイブリッド

ビジョン・言語モデル

視覚およびテキストの入出力を用いるマルチモーダルモデルで、低遅延かつデバイス特性を考慮したデプロイメントに適した機能を備えています。

オンデバイス
クラウド
ハイブリッド

オーディオモデル

音声およびテキスト生成のためのエンドツーエンド基盤モデル。低遅延向けに設計されており、わずか15億パラメータで高品質かつ応答性の高い対話を実現します。

LFM を使った構築を、今すぐ始めましょう。

LFM は迅速なカスタマイズが可能なため、
ユースケース、デバイス、データに合わせて
高いパフォーマンスを最短で実現 できます。Liquid によるフルスタックな支援をご希望の場合は営業チームまで、
セルフサービスでの構築・デプロイも可能です。

LEAP を試す: 開発者ファーストのプラットフォームで、カスタマイズからあらゆる OS へのデプロイまでを1 つのワークフローで実行できます。

ドキュメントを見る: クックブックやチュートリアルを使って、LFM の構築とカスタマイズを始めましょう。

モデルをダウンロード: Hugging Face 上のモデルコレクションを閲覧・ダウンロード・構築。

ディスコードに参加しよう

あらゆるスケールで、最先端のパフォーマンス。

ベンチマーク
LFM2-350M
LFM2-700M
LFM2-1.2B
MMLU
(5-shot)
43.43
49.9
55.23
GPQA
(0-shot)
27.46
28.48
31.47
IFEval
65.12
72.23
74.89
IFBench
16.41
20.56
20.7
GSM8K
(0-shot)
30.1
46.4
58.3
MGSM
(5-shot)
29.52
45.36
55.04
MMMLU
(5-shot)
37.99
43.28
46.73
* LFM2 は以下の代表的ベンチマークで評価されています。
知識(5-shot MMLU、0-shot GPQA)、指示追従(IFEval、IFBench)、
数学(0-shot GSM8K、5-shot MGSM)、多言語(5-shot OpenAI MMMLU、5-shot MGSM)。多言語評価は、
日本語・英語・中国語・韓国語・フランス語・ドイツ語・スペイン語・アラビア語
を含む 7 言語で実施しています。

LFM2 の設計・構築・トレーニングの全貌

ハードウェア・イン・ザ・ループのアーキテクチャ設計、
事前学習、知識抽出、トレーニング後の最適化手法まで。LFM2 がどのように設計・学習されたのかを詳しく解説しています。

LFM2 テクニカルレポート全文を読む

必要な場所で、効率的に推論できる設計。

エッジでもクラウドでも、比類のないスピード、品質、メモリ効率を実現。

LFM は、スマートフォン、ノートPC、自動車など、
どの環境でも CPU・GPU・NPU 上で効率的に動作します。ミリ秒単位のレイテンシー、
オンデバイスでのレジリエンス、
データプライバシーを重視した設計により、
ローカル・クラウド・ハイブリッド AI の可能性を最大限に引き出します。

オンデバイス

クラウド

ハイブリッド

図 1.ExecuTorch の CPU のプリフィルパフォーマンス
図 1:ExecuTorch における CPU プリフィル性能
図 2.ExecuTorch の CPU のプリフィルパフォーマンス
図 1:ExecuTorch における CPU プリフィル性能

ユースケースに合わせた微調整で、最高のパフォーマンスを。

モデルカスタマイズの力を、直接あなたの手に。

LFM は、選択したハードウェア上でローカル実行できる
極めて小さなフットプリントを持ち、
特定ユースケースでのピーク性能を素早く引き出せるよう設計されています。

Liquid のフルスタックソリューションは、
プロトタイプから製品化までを加速する
アーキテクチャ、最適化、デプロイエンジンを提供します。

最新の Liquid Foundation Models

よくあるご質問

企業として、Liquid Foundation Model (LFM) へのフルローカルアクセスを購入できますか?
Liquid Foundation Model (LFM) はファインチューニングできますか?
Liquid Foundation Model (LFM)  の詳細はどこで確認できますか?
Liquid AI を始めよう

Liquid AI で、
ビジネス、ワークフロー、そしてエンジニアの可能性を解き放ちましょう。

プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しくabout our Privacy Policy
  • 必須クッキーが必要です