あらゆる規模、あらゆる導入に対応する基盤モデル。

どのモデルがあなたに適しているかわからない? 私たちがお手伝いします。

お問い合わせ

すべての環境で、スケーラブルで高性能な AI。

モデル
LFM-1.3B
LFM-3B
LFM-7B
LFM-40B
目的
目的

組み込み機器に最適です。

狭いユースケースに合わせてファインチューニングできる最小の言語基盤モデル。

スマートフォンに最適です。

狭いユースケースに合わせてファインチューニングできる中規模の言語基盤モデル。

ラップトップに最適です。

当社最大の言語基盤モデルは、狭いユースケースに合わせてファインチューニングされています。

GPU をターゲットにするのに最適 
クラウドとオンプレミス向け。

一流のゼロショット精度と比類のないパフォーマンスを実現するために構築された強力な言語基盤モデル。
CLI サポートの微調整
エッジ・デプロイメント・スタック
ファインチューニングには未対応
エッジ・デプロイメント・スタック
CPU
オンプレミスデプロイメントスタック
CPU
CPU へのデプロイを目的としていません (GPU環境にのみ対応)
オンプレミスデプロイメントスタック
GPU
CLI サポートの微調整
GPU
言語
ベースモデルで
言語
ベースモデルで
英語
英語、スペイン語、ドイツ語、フランス語、アラビア語、日本語、韓国語、中国語
英語、スペイン語、ドイツ語、フランス語、アラビア語、日本語、韓国語、中国語、ポルトガル語 (ブラジル)
英語、スペイン語、ドイツ語、フランス語、アラビア語、日本語、韓国語、中国語、ポルトガル語 (ブラジル)

カテゴリーサイズを問わず優れたモデルを開発し、新たな用途を開拓します。

ベンチマーク

新世代の生成AIモデルは、あらゆる規模で最先端のパフォーマンスを実現します

Models
LFM-1.3B
LFM-3B
LFM-7B
LFM-40B
Context length
(tokens)
32k
32k
32k
32k
MMLU
(5-shot)
58.55
66.16
69.34
78.76
MMLU-Pro
(5-shot)
30.65
38.41
42.42
55.63
Hellaswag
(10-shot)
67.28
71.31
83.07
82.07
ARC-C
(25-shot)
54.95
57.94
70.56
67.24
GSM8K
(5-shot)
55.34
44.28
76.04
図 1。各種ベンチマークでの、各サイズの LFM のパフォーマンス。
パフォーマンス

すべてのサイズカテゴリーで、パフォーマンスとサイズのバランスが良くとれています。

Fig.2.LFMs offer a new best performance/size tradeoff in the 1B, 3B, and 12B (active parameters) categories.
図 2。LFMは、1B、3B、12B(アクティブパラメータ)のカテゴリーにおいて、パフォーマンスとサイズのトレードオフがこれまでになく最高になりました。
メモリ効率

Liquidモデルは、入力が増えるにつれて、主要プロバイダーのモデルとの比較で、最大 3倍以上のメモリ効率を実現します。

Fig.3.Total inference memory footprint of different language models vs. the input+generation length.
図 3。さまざまな言語モデルの推論メモリフットプリントの合計と、入力+世代の長さの比較。

よく寄せられる質問。

Liquid Foundation Model (LFM) はファインチューニングできますか?
Liquid Foundation Model (LFM)  の詳細はどこで確認できますか?
企業として、Liquid Foundation Model (LFM) へのフルローカルアクセスを購入できますか?
AI を体験する準備はできていますか?

Liquid AI でビジネス、ワークフロー、エンジニアを強化しましょう

プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です