.png)
本日、私たちはLFM2ファミリーを完成させる、これまでで最も高性能なモデル「LFM2-24B-A2B」を発表します。テクニカルブログではアーキテクチャ仕様の詳細をご紹介していますが、本当の特長はその汎用性にあります。本モデルは、大規模なクラウドクラスターから次世代のAI PCやモバイルデバイスに至るまで、あらゆる環境で動作するよう設計されています。
パートナーエコシステムとの連携により、開発者はLFM2-24B-A2Bを初日から最適化された状態で利用できます。
- クラウドパートナー:Together AIおよびModalにより、即座にスケール可能。
- シリコンパートナー:Intel(OpenVINO™経由)、AMD Ryzen™ AIプラットフォーム上での高性能ローカル実行向けAMDハードウェア、ならびにAI PCおよびハイエンドモバイル向けのQualcomm Technologies, Inc. に最適化。
- 推論および配信パートナー:Cactus Compute、Ollama、LM Studio、Nexa AIを通じて、モバイル、デスクトップ、ターミナル全体にシームレスに展開可能。
グローバルなエンタープライズアプリケーションを構築する場合でも、プライバシー重視のローカルアシスタントを開発する場合でも、LFM2-24B-A2Bはユーザーのいるあらゆる場所で利用可能です。
Cloud Partners:即時・スケーラブル・オンデマンド
AIネイティブクラウドであるTogether AIは、本番環境対応のサーバーレスなエージェント型デプロイメントにおける当社のパートナーです。開発者は、LFM2-24B-A2Bを99.9%の信頼性SLAのもと、サーバーレスインフラストラクチャ上でデプロイでき、高ボリュームのマルチエージェントワークフロー向けに最適化されています。
今すぐTogether AI Playground、またはAPI(model=“liquid-ai/lfm2-24b-a2b”)を通じて本モデルをお試しください。
Modalは、Liquid AIモデルを迅速にカスタマイズおよび/またはセルフデプロイしたい開発者に最適です。Modalの使いやすいPython SDK、グローバルGPUプール、そしてサブ秒のコールドスタートにより、複雑なコンピュートオーケストレーションを行うことなく、本番環境でモデルを即座にスケールさせることができます。
LFM2 24Bを超高速のコールドスタートと超低レイテンシで実行したいですか?Modalは、vLLMを使用してLiquidのLFM2モデルを提供するための優れたガイドを用意しています。ModalのCPU+GPUメモリスナップショットと新しい低レイテンシルーティングサービスを活用することで、レイテンシに敏感なワークロードに最適化されたエンドポイントを簡単にデプロイできます。ぜひステップバイステップの例をご覧ください。
Edge:デバイス上で実現するプライバシーファーストAI
AMDとの緊密なパートナーシップにより、CPU、GPU、NPUを含む同社のハードウェアスタック全体でパフォーマンスを最大限に引き出しています。RyzenLLM-AI推論エンジンを活用することで、LFM2 24B MoEモデルは、NPU上でのローカルAIタスクにおいて高効率な体験を提供します。
「AMDは、Liquid AIの最新Liquid Foundationモデルに対するデイゼロサポートを提供できることを誇りに思います。当社の幅広いGPUおよびNPU対応APUのポートフォリオにより、ユーザーは本モデルを優れたパフォーマンスと効率で活用するための多様な選択肢を得ることができます。」
— AMD AI製品管理担当コーポレート・バイスプレジデント、Ramine Roane氏
私たちは、新しいLFM2 24B MoEモデルの公式ローンチパートナーとしてIntelを迎えられることを大変嬉しく思います。本コラボレーションの一環として、IntelのAI推論ソフトウェアであるOpenVINO™ツールキットが、当社のLFM2-24B-A2Bモデルをサポートするようになったことをお知らせします。
この統合により、開発者や企業はIntelの幅広いハードウェア製品群全体で当社モデルをシームレスに最適化およびデプロイできるようになり、AI PC、エッジデバイス、データセンターにおける推論の高速化とAIパフォーマンスの向上を実現します。
以下のデモでは、Intel搭載のAI PC上でLiquidのアーキテクチャとIntelのOpenVINO™ツールキットを組み合わせることで実現される、シームレスなパフォーマンスをご覧いただけます。
スクリプトに LFM2 24B を統合したい開発者や、ターミナルベースのワークフローを好む方のために、Ollama ライブラリでも公開しています。
単一のコマンドでモデルを取得して実行できるため、ローカルの RAG パイプラインやエージェント型ワークフローで、使用するハードウェア上ですぐに利用可能です。
コマンドラインで始める:
ollama run lfm2:24b-a2bCactusエンジンがアップデートされ、LFM2 24B MoEモデルのローンチを完全にサポートするようになったことをお知らせできることを嬉しく思います。特にApple Silicon上でのパフォーマンスは非常に印象的です。M4 Pro CPUでINT8量子化を実行した場合、Cactusエンジンはプリフィルで毎秒229トークン、デコードで毎秒27トークンという驚異的な速度を実現しています(1kプリフィル、100デコードのベンチマークに基づく)。
「LFM2-24B-A1はコーディングにおいて卓越しており、これを活用したオンデバイスのコーディングエージェントの登場が楽しみです。」
— Henry Ndubuaku(Cactus共同創業者)
Cactusを使い始めるには、How to build on-device coding agents with Cactus & LFM2-24B-A2B の例をご覧ください。
LFM2シリーズの公式ローンチパートナーとしてLM Studioを迎えることができ、大変嬉しく思います。LM Studioは、使いやすいインターフェースでローカルLLMを発見・実行するための標準を確立してきました。私たちは同社チームと緊密に連携し、LFM2 24Bが初日から最適化されるよう取り組んできました。本パートナーシップにより、Liquidのアーキテクチャの力が、モデルをローカルで視覚的に管理・対話・テストしたいと考える幅広い開発者やパワーユーザーに届けられます。
LFM2 24B Instruct MoEで今すぐ構築を始めましょう
クラウド環境へのデプロイから、最新のAI PCでの100%ローカル実行まで、LFM2 24B MoEモデルはパフォーマンスを損なうことなく、あらゆる環境で動作するように設計されています。
今すぐ始めましょう:
- クラウド:Together AIまたはModalですぐにテストできます。
- ローカル:Cactus、Ollama、LM Studio、Nexa AIを通じて、モバイル、デスクトップ、ターミナルで実行可能です。
エージェント型AIの未来がここにあります。皆さんがどのようなものを構築するのか、私たちは楽しみにしています。あなたのプロジェクトをぜひ共有し、Liquid AI community on Discord に参加してください!
Hexagon NPUs上での実行