デバイス上で動作する最速のファウンデーションモデル

当社の次世代ハイブリッドモデルは完全にオンデバイスで動作し、エージェントタスク、データ抽出、RAG、クリエイティブライティング、マルチターンの会話において高い性能を発揮します。

今すぐ LFM を使って構築を始めましょう

LEAP は、開発者ファーストのエッジ向け AI プラットフォームです。OS やモデルに依存しない設計が特徴です。

LEAP を試す

カテゴリーサイズを問わず優れたモデルを開発し、新たな用途を開拓します。

ベンチマーク

新世代の生成AIモデルは、あらゆる規模で最先端のパフォーマンスを実現します

ベンチマーク
LFM2-350M
LFM2-700M
LFM2-1.2B
MMLU
43.43
49.9
55.23
GPQA
27.46
28.48
31.47
IFEval
65.12
72.23
74.89
IFBENCH
16.41
20.56
20.7
GSM8K
30.1
46.4
58.3
MGSM
29.52
45.36
55.04
MMMLU
37.99
43.28
46.73
図1. 自動ベンチマークにおける LFM2 の性能
パフォーマンス

すべてのサイズカテゴリーで、パフォーマンスとサイズのバランスが良くとれています。

Fig.2.LFMs offer a new best performance/size tradeoff in the 1B, 3B, and 12B (active parameters) categories.
図2. モデルサイズに対する平均スコア(MMLU、IFEval、IFBENCH、GSM8K、MMMLU)
エッジ向けに最適化

LFM2 は、CPU 上で Qwen3 の 2 倍のデコードおよびプリフィル性能を実現します。

Fig.3.Total inference memory footprint of different language models vs. the input+generation length.
図3. ExecuTorch における CPU(AMD HX370)でのプリフィル性能

よく寄せられる質問。

Liquid Foundation Model (LFM) はファインチューニングできますか?
Liquid Foundation Model (LFM)  の詳細はどこで確認できますか?
企業として、Liquid Foundation Model (LFM) へのフルローカルアクセスを購入できますか?
AI を体験する準備はできていますか?

Leap SDK でエッジ向け開発を始めよう

プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です