効率性、スピード、そしてあらゆるデバイスへの実運用を前提に設計された独自のアーキテクチャにより、
AI が「どこで、どのように動くか」を再定義します。ウェアラブル、ロボティクス、スマートフォン、ノートPC、自動車まで。
LFM は GPU・CPU・NPU 上でシームレスに動作し、
あらゆる環境からインテリジェンスへアクセス できるようにします。

スピード、機能性、効率性を重視して設計された
マルチモーダル・ハイブリッドモデル。オンデバイスからクラウドまであらゆる環境で実行可能で、
エージェント処理、指示追従、データ抽出、RAG などのユースケースに最適です。
LFM2 は、軽量かつカスタマイズ可能で計算効率の高い設計により、あらゆる環境で強力なパフォーマンスを発揮します。
LFM2-350M
LFM2 -700M
LFM2-1.6B
LFM2-8B-A1B
低レイテンシーかつデバイスを意識したデプロイを前提に設計された、ビジョンとテキストの入出力に対応するマルチモーダルモデル。
LFM2-VL-450M
LFM2-VL-1.6B
LFM2-VL-3B
オーディオおよびテキスト生成に対応したエンドツーエンドの基盤モデル。低レイテンシーを前提に設計されており、15 億パラメータ で高品質かつ応答性の高い会話を実現します。
LFM2-オーディオ-1.5b
特定のタスクや知識に最適化された、軽量な専用モデル群。
抽出
ツール実行
数学
ColBERT
RAG
日本語 PII 抽出
LFM は迅速なカスタマイズが可能なため、
ユースケース、デバイス、データに合わせて
高いパフォーマンスを最短で実現 できます。Liquid によるフルスタックな支援をご希望の場合は営業チームまで、
セルフサービスでの構築・デプロイも可能です。
LEAP を試す: 開発者ファーストのプラットフォームで、カスタマイズからあらゆる OS へのデプロイまでを1 つのワークフローで実行できます。
ドキュメントを見る: クックブックやチュートリアルを使って、LFM の構築とカスタマイズを始めましょう。
モデルをダウンロード: Hugging Face 上のモデルコレクションを閲覧・ダウンロード・構築。
ハードウェア・イン・ザ・ループのアーキテクチャ設計、
事前学習、知識抽出、トレーニング後の最適化手法まで。LFM2 がどのように設計・学習されたのかを詳しく解説しています。
LFM は、スマートフォン、ノートPC、自動車など、
どの環境でも CPU・GPU・NPU 上で効率的に動作します。ミリ秒単位のレイテンシー、
オンデバイスでのレジリエンス、
データプライバシーを重視した設計により、
ローカル・クラウド・ハイブリッド AI の可能性を最大限に引き出します。

.png)
LFM は、選択したハードウェア上でローカル実行できる
極めて小さなフットプリントを持ち、
特定ユースケースでのピーク性能を素早く引き出せるよう設計されています。
Liquid のフルスタックソリューションは、
プロトタイプから製品化までを加速する
アーキテクチャ、最適化、デプロイエンジンを提供します。


Liquid AI に問い合わせる
はい。当社のチームと協力して、クラス最高のモデルのライブラリからLFMのライセンスを購入してください。
LFMのライセンスは、導入/推論用とカスタマイズ用の2つのソフトウェアスタックで構成されていますます。1)Model Inference スタックと2)Model Customization スタックです。現在、エッジとオンプレミスのユースケースの実現については、クライアントとの連携を優先しています。私たちのチームに連絡して、私たちのビジネスモデルについて詳しく学んでください。
はい。企業向けに購入可能なオンプレミスの LFM カスタマイズスタックを構築しました。LFM は、エンタープライズファイアウォールのセキュリティの範囲内で、エンタープライズアプリケーションのローカル、プライベート、セーフティクリティカル、レイテンシーに制約のあるユースケース向けに迅速に微調整、特化、最適化できます。
LFMのさまざまな側面に関する私たちの研究などについてもっと読む ここから 、XとLinkedInでフォローしてください。