プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です

マサチューセッツ州ケンブリッジ — 2025年9月25日 — 液体 本日、AIモデルのトレーニングとカスタマイズにおけるブレークスルーを発表しました。これにより、3億5,000万~26億のパラメーター基盤モデル(「Nanos」)が、電話、ラップトップ、および組み込みデバイスで実行されながら、特殊なエージェントタスクでGPT-4Oクラスのパフォーマンスを提供できるようになります。社内およびパートナーの評価では、Liquid Nanosは最大で数百倍も大きいモデルと競合する性能を示しました。その結果、クラウドフリーの経済性を備えた地球規模のAIエージェントが生まれました。

データセンターで大規模なフロンティアモデルを運用する際のコストとエネルギー消費は、広範な展開を妨げる大きな障壁となっています。Liquidが設計した効率的で軽量、かつマルチモーダルな大規模言語モデル「Liquid Foundation Models(LFM)」は、この課題を根本から変えます。LFMは、高度なトレーニング手法と特殊なファインチューニングを組み合わせることで、極めて小規模な「Nanos」クラスでも、エージェントAIの基盤を構成する主要要素――正確なデータ抽出、構造化された出力生成、多言語翻訳(10言語以上)、検索拡張生成(RAG)、数理的推論、ツール呼び出し――において、フロンティアレベルに匹敵する信頼性を実現します。

「Liquid Nanosは、追加の推論コストをかけることなく、大規模なフロンティアモデルと同等のタスク特化型パフォーマンスを実現します。応答遅延、推論コスト、プライバシー要件に厳しいKPIを持つ生成AIアプリケーションにとって、理想的なソリューションです。」と、Liquid AIのCTOであるマティアス・レヒナー(Mathias Lechner)は述べています。
「当社のエンタープライズ顧客は、大規模な高スループットのクラウドインスタンスから、低消費電力の組み込みデバイス上で完全にローカルに実行されるケースまで、さまざまなシナリオでLiquid Nanosの導入に成功しています。」

Liquidは初回リリースで6つのタスク特化型Nanosを発表し、今後さらに多くのモデルを追加する予定です。

  • LFM2-350M-ENJP-MT:英語と日本語の双方向翻訳を行う350Mパラメータモデル。一般的なオープンソースモデルの10倍以上の品質を達成し、サイズが500倍以上と推定されるGPT-4oと競合する翻訳精度を実現しています。
  • LFM2-350M-Extract: 3億5,000万パラメータの多言語データ抽出モデル。請求書メールからJSON形式で情報を抽出するなど、非構造化データから構造化データを抽出する用途に設計されています。このタスクにおいて、サイズが11倍以上のGemma 3 4Bを上回る性能を発揮します。
  • LFM2-1.2B-Extract: 12億パラメータの多言語データ抽出モデル。さまざまな言語で複雑なオブジェクトを出力でき、サイズが22.5倍のGemma 3 27Bを上回り、160倍以上と推定されるGPT-4oと同等の結果を示します。このモデルにより、文書から抽出される構造化データの有効性、精度、忠実性が大幅に向上します。
  • LFM2-350M-Math:数学的問題を解くことができる350Mパラメータの推論モデル。
  • LFM2-1.2B-RAG: エージェントワークフローなど、関数呼び出し(ツールコーリング)ユースケース向けに設計された1.2Bパラメータモデル。
  • LFM2-1.2B-Tool: エージェントワークフローなど、関数呼び出しのユースケース向けに設計された 1.2B パラメータモデル。

Liquidの中核技術として、独自のソフトウェア群を活用し、自動評価、知識蒸留、強化学習、モデルマージを組み合わせて、モデル性能を継続的に向上させています。

「Nanosは、導入モデルの常識を覆します。」と、Liquid AIのCEOであるラミン・ハサニ(Ramin Hasani)は述べています。「すべてのトークンをデータセンターに送信するのではなく、インテリジェンスそのものをデバイスに届けるのです。これにより、スピード、プライバシー、レジリエンス、そしてすべての人に拡張可能なコスト構造が実現します。」

Nanosは、AIシステムの経済的および環境的インパクトにおいて飛躍的な変化をもたらす可能性があります。今後の社会では、人々は1つの汎用アシスタントに依存するのではなく、複数の小型でタスク特化型のエージェントを利用するようになります。これらのエージェントは、デバイス(スマートフォン、ラップトップ、車、スマートウォッチ、ホームハブ)、アプリ(メール、カレンダー、ドキュメント、ブラウザ、ショッピング、旅行、金融)、さらに各種サービス(銀行、通信会社、小売業者、医療機関など)に常駐し、パーソナライズ、サポート、リスク管理、コンプライアンスなどの目的でユーザーごとに稼働します。

また、ワークフロー中に生成される一時的なマイクロエージェント(RAGフェッチャー、エクストラクター、トランスレーター、ツールコーラー)や、バックグラウンドで動作するセキュリティ/自動化エージェントも加わることで、1人あたりおよそ100体のエージェントが稼働することになります。

人口1,000万人規模では、コンシューマー、エンタープライズ、公共部門の各ワークロードを合わせて、約10億体のAIエージェントが存在する計算になります。これら10億体のAIエージェントをクラウド上でホストして1,000万人にサービスを提供する場合、年間コストは少なくとも約435億ドル、エネルギー消費量は約16TWhに達します。これは、米国の約145万世帯が1年間に消費する電力量に相当します。

LiquidのオンデバイスNanosを利用すれば、同等の機能を年間コストで最大50分の1、エネルギー消費で100分の1にまで削減することが可能です(推論の99%をユーザーのデバイス上でローカルに実行する場合の試算)。

「Liquidの新しい事前トレーニングおよび事後トレーニング技術によって、高速かつ小型のLLMが、はるかに大規模なGPT-4oなどのフロンティアモデルと同等の性能を専門タスクで発揮していることに非常に感銘を受けています。」と、ShopifyのCTOであるミハイル・パラヒン(Mikhail Parakhin)は述べています。「Liquidは、基盤モデルにおける性能と速度の両面で新たな基準を打ち立て、最先端をさらに押し広げています。そのため、当社はShopifyのプラットフォームやサービス全体で彼らのモデルを活用できることに大きな期待を寄せています。」

Liquidのタスク特化型Nanosは、ほとんどのAI導入の現実に合わせて設計されています。その利点には次のものが含まれます。

  • 目的に合わせた効率性: ほとんどのAIユースケースはタスク特化型であり、小型で微調整されたモデルが自然に適しています。
  • 構成可能なシステム: 複数のNanosを組み合わせることで、より複雑なユースケースをカバーでき、それでも1000億パラメータを超える汎用モデルよりも効率的です。
  • オンデバイス展開: モデルをローカルで実行することで、クラウドへの依存を排除し、コストとレイテンシを削減しながら、データのプライバシーとセキュリティを確保します。
「デロイトは、より低コストで大規模モデルに匹敵するパフォーマンスを実現する可能性を持つLiquid AIおよびその新しいNanosモデルとの協業の機会に期待しています」と、デロイトのチーフ・ストラテジー&テクノロジー・オフィサーであるランジット・バワ(Ranjit Bawa)氏は述べています。

オンデバイス推論にとどまらず、NanosはGPU(オンプレミスまたはクラウド上)全体にスケールし、ビッグデータワークフローを支えることも可能です。そのコンパクトなサイズにより、卓越したGPUスループットを実現し、大規模なドキュメントのインジェストや構造化データの抽出、ETLスタイルのパイプライン、ログ解析などを可能にします。金融やeコマースなどの業界においては、スループットやスケールが重要となる場面でGPUを活用する柔軟性を持ちながら、機密性の高いワークロードを内部で安全に実行できるという安心感を提供します。

さらに、Liquidの新しいモデル開発パイプラインは、Nanosを体系的に1000倍の規模へとスケールさせることができ、新しいハードウェアアーキテクチャと連携することで、魅力的で予測可能な経済性を持つ、はるかに強力なシステムを実現します。

「LiquidのNanosは、コンパクトでエネルギー効率の高い形でフロンティアレベルのパフォーマンスを実現し、AI PCにおける強力な転換点を示しています。AMDでは、ワットあたりのパフォーマンスリーダーシップに対するこの焦点を共有しており、オンデバイスインテリジェンスこそがAIを広範かつ持続的にスケーリングする鍵であると考えています。」と、AMDの最高技術責任者兼エグゼクティブバイスプレジデントであるマーク・ペーパーマスター(Mark Papermaster)は述べています。

Liquid Nanosは現在、Liquid Edge AIプラットフォーム「LEAP」上で利用可能で、iOSおよびAndroidのモバイル端末やラップトップ向けにダウンロードおよび統合が可能です。また、「Apollo」上でのテストも行えます。これらのモデルはHugging Face上でも公開されており、開発者はアカデミア、開発者、中小企業向けのオープンライセンスのもと、すぐに利用することができます。Liquidはすでに複数のFortune 500企業と協力し、コンシューマーエレクトロニクス、自動車、eコマース、金融などの分野でタスク特化型Nanosのカスタマイズ版を導入しています。

リキッドAIについて

Liquid AIは、MIT発のスピンアウト企業で、現実世界の環境向けに設計された高効率なAIシステムの構築に注力しています。
Liquid独自の「Liquid Foundation Models(LFM)」と開発プラットフォーム「LEAP」により、レイテンシー、プライバシー、パフォーマンスが最も重視されるデバイス上に、高度なAIをシームレスに直接デプロイすることができます。

詳しくは liquid.ai をご覧ください。

報道関係者お問い合わせ先

Caroline Hoogland

press@liquid.ai

お問い合わせ

プレスに関するすべてのお問い合わせは、press@liquid.ai までご連絡ください