プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です

数百万ドル規模の複数年契約により、Liquid AI は Shopify と提携し、検索向けに Liquid のマルチモーダル Liquid Foundation Models(LFM) をライセンス提供するとともに、両社で共同開発した新しいジェネレーティブ・レコメンダー・システムを展開します。本システムは、制御テストにおいて従来のシステムを上回る性能を示しました。

Liquid AI は本日、Shopify との多面的なパートナーシップを発表しました。本提携により、Liquid AI の主力製品である Liquid Foundation Models(LFM)が、検索をはじめ、品質とレイテンシーが重要となるマルチモーダルなユースケースを含む、Shopify プラットフォーム上の品質重視ワークフローにライセンス提供・展開されます。最初の本番導入は、検索体験を強化する 20 ミリ秒未満のテキストモデルです。

本契約は、2024 年 12 月に Shopify が Liquid AI の 2 億 5,000 万ドルのシリーズ A ラウンドに参加したことに続くものであり、両社間ですでに進行していた緊密な共同開発関係を正式なパートナーシップとして確立するものです。

パートナーシップの一環として、Shopify と Liquid は、新しい HSTU アーキテクチャを採用したジェネレーティブ・レコメンダー・システムを共同開発しました。対照テストでは、このモデルが従来のスタックを上回る性能を示し、その結果、レコメンデーションからのコンバージョン率向上が確認されています。

Liquid AI 最高経営責任者(CEO)の ラミン・ハサニは次のように述べています。
「レコメンデーションは、金融、医療、電子商取引における意思決定の中核です。モデルが現実世界で価値を発揮するためには、信頼性が高く、効率的で、高速である必要があります。Shopify は、それを大規模に検証できる理想的なパートナーです。Liquid Foundation Models を何百万もの買い物客やマーチャントに提供し、機械学習の効率性が日々の体験の中で測定可能な価値へと変換されることを示せることを嬉しく思います。」

Liquid の LFM は、20 ミリ秒未満で品質を維持したマルチモーダル推論を行うよう設計されています。本番環境のような特定タスクにおいては、パラメータ数が最大 50%少ない LFM が、Qwen3、Gemma3、Llama 3 といった一般的なオープンソースモデルを上回る性能を発揮しながら、推論速度は 2〜10 倍高速で、プラットフォーム規模でのリアルタイムなショッピング体験を可能にします。

Shopify CTO の ミハイル・パラキンは次のように述べています。
「私は数多くのモデルを見てきましたが、このような実際のワークロードで 20 ミリ秒未満の推論を実現している企業は他にありません。Liquid のアーキテクチャは、品質を犠牲にすることなく非常に効率的です。ユースケースによっては、パラメータ数が最大 50%少ないモデルの方が Alibaba Qwen や Google Gemma よりも優れており、それでも実行速度は 2〜10 倍高速です。これこそが、インタラクティブコマースを大規模に推進するために必要な要素です。」

Liquid AI CTO の マティアス・レヒナーは次のように述べています。
「私たちは、選択されたハードウェア上で市場最速の性能を実現しながら品質を最大化するという、相互に絡み合った目的関数を持つ Liquid Foundation Models を設計しています。そのため、パーソナライズされたランキング、検索拡張生成、セッションベースのレコメンデーションなど、E コマースのユースケースに自然に適合します。これらはいずれも、最高のユーザー体験を提供するために厳しいレイテンシーおよびコスト制約の中で動作します。Shopify の環境では、低分散のテールレイテンシーから安全性やドリフト監視まで、プロダクションの堅牢性を重視してきました。」

本パートナーシップには、低レイテンシーかつ品質重視の Shopify ワークロード全体にわたる LFM の多目的ライセンス、継続的な研究開発コラボレーション、共有ロードマップが含まれます。現在は検索向けの 20 ミリ秒未満のテキストモデルが展開されていますが、両社は顧客プロファイル、エージェント、製品分類など、他の製品やユースケース向けのマルチモーダルモデルについても評価を進めています。財務条件は非公開です。

Liquid AI について

Liquid AI は、Liquid Foundation Models(LFM) を構築しています。LFM は、信頼性が求められるリアルタイムアプリケーション向けに設計された、マルチモーダルかつ高効率なモデルです。
液体ニューラルネットワークの研究者によって設立された Liquid AI は、低レイテンシー推論、リソース効率、プロダクショングレードの安全性に重点を置いています。

お問い合わせ

プレスに関するすべてのお問い合わせは、press@liquid.ai までご連絡ください

これは div ブロック内のテキストです。