今週の CES では、AMD の Liquid AI チームとそのパートナーが、AMD ハードウェア上でローカルに実行される、超高速で信頼性が高く、完全に安全な会議要約機能を通じて、オンデバイス・インテリジェンスの未来を紹介します。

会議には、意思決定、コミットメント、顧客インサイト、アクションアイテムなどの重要なビジネスインテリジェンスが含まれ、多くの場合、機密情報も含まれます。ほとんどの AI 要約ツールでは、こうしたデータをクラウドに送信する必要があり、その結果、遅延や予測不能なコストが発生し、セキュリティやコンプライアンス上のリスクも増大します。

Liquid AI と AMD のチームは協力し、AMD Ryzen™ AI プラットフォーム全体で完全にオンデバイスで実行される、クラウド品質の会議要約モデルを開発・導入しました。

このモデルには以下の特長があります。

  • クラウドレベルの要約品質
  • 要約は数秒で生成
  • RAM 使用量は 3GB 未満
  • 大規模な Transformer ベースのベースラインと比較して、待ち時間と消費電力を削減
  • CPU、GPU、NPU 全体での完全ローカル実行

このプロジェクトは、ゼロから 2 週間未満で導入され、LFM がどのように「AI Everywhere(どこでも AI)」の動きを推進しているのか、そしてハードウェアを前提に設計された高度に専門化されたモデルをデバイスに展開することで、何が可能になるのかを示しました。

ケーススタディの全文はこちらからご覧いただけます

本日、私たちは LFM2-2.6B-Transcript を通じて、この高速かつプライベートな、オンデバイスのエンタープライズグレード会議要約をすべての人に提供します。

Liquid Nano は、長時間の会議文字起こしや実運用ユースケース向けに設計された、専用の Liquid Nano モデルです。クラウドへの依存はなく、データがデバイス外に出ることもなく、パフォーマンスを犠牲にすることもありません。CPU、NPU、GPU を問わず、お好みのハードウェアにデプロイできます。

現在、LEAP および Hugging Face からダウンロード可能です。

LFM2-2.6B-Transcript:クラウド品質の会議要約を完全オンデバイスで

LFM2-2.6B-Transcript は、30〜60 分の会議を長文で要約できるようにトレーニングされています。社内チームミーティング、セールスコール、顧客との会話、取締役会や経営幹部向けブリーフィング、機密性の高いセキュリティクリティカルな会話、オフラインまたは低接続環境のワークフローに最適です。

重要な論点、明確な意思決定、帰属するアクションアイテムを、一貫したフォーマットとトーンで、明確かつ構造化されたアウトプットとして生成します。

最良の結果を得るために、要約対象となる会議の文字起こしは、特定の形式で入力します。

<user_prompt>
Title (example: Claims Processing training module)
Date (example: July 2, 2021)
Time (example: 1:00 PM)
Duration (example: 45 minutes)
Participants (example: Julie Franco (Training Facilitator), Amanda Newman (Subject Matter Expert))
----------
**Speaker 1**: Message 1 (example: **Julie Franco**: Good morning, everyone. Thanks for joining me today.)
**Speaker 2**: Message 2 (example: **Amanda Newman**: Good morning, Julie. Happy to be here.)
etc.

ユーザーは、 <user_prompt> を以下のオプションに置き換えるだけで、次の要約タイプの中からモデルの 出力内容 を指定できます。

Summary type
User prompt
Executive summary
Provide a brief executive summary (2-3 sentences) of the key outcomes and decisions from this transcript.
Detailed summary
Provide a detailed summary of the transcript, covering all major topics, discussions, and outcomes in paragraph form.
Action items
List the specific action items that were assigned during this meeting. Include who is responsible for each item when mentioned.
Key decisions
List the key decisions that were made during this meeting. Focus on concrete decisions and outcomes.
Participants
List the participants mentioned in this transcript. Include their roles or titles when available.
Topics discussed
List the main topics and subjects that were discussed in this meeting.

ユーザーが複数のプロンプトを追加したり、1 つのプロンプトに組み合わせたりして、最適な出力形式を作成できるよう、自由形式で設計されています。以下はいくつかの例です。

Title
Input meeting
Model output
Budget planning
Design review
Coffee chat / social hour
Procurement / vendor review
Task force meeting

パフォーマンスとベンチマーク精度:

ベンチマークでは、モデルが gpt-oss-20b を上回り、短い(1K トランスクリプト)ケースでは Qwen3-30B や Claude Sonnet に近いパフォーマンスを示しています。これらはいずれも桁違いに大きなモデルです。長い(10K)トランスクリプトでは、LFM2 モデルは依然として gpt-oss-20b より優れていますが、大幅に大きい Qwen3-30B やクラウドモデルのパフォーマンスにはわずかに及びません。

このグラフのデータは、Gaia Eval Judge フレームワークを使用して生成されました。8 種類の異なる会議タイプに分散された、24 個の合成 1K トランスクリプトと 32 個の合成 10K トランスクリプトを使用しています。コンテンツの生成および評価の両方に Claude Sonnet 4 モデルを使用しました。

メモリ使用量:この構成では、LFM2-2.6B-Transcript は 2.7GB の RAM で 10,000 トークン(約 60 分の会議記録)を処理でき、AI ワークロードに最大 4GB しか割り当てられない一般的な 16GB RAM システムにも問題なく適合します。これは、同等の品質を持つトランスフォーマーモデルに必要とされる数ギガバイトと比べて、はるかに少ないメモリ使用量です。以下の図は、同一のコンテキスト長における RAM 使用量をまとめたものです。この差こそが、LFM2 では 16GB AI PC への完全なオンデバイスデプロイが現実的である一方、従来の多くのトランスフォーマーモデルでは事実上困難である理由です。

この結果は、AMD Ryzen AI Max+ PRO 395 プロセッサを搭載した HP Z2 Mini G1a 次世代 AI デスクトップワークステーション上で、llama-bench.exe(b7250)を使用して生成されました。以下のコマンドを実行し、llama-bench.exe プロセスのピークメモリ使用量を測定することで、CPU 推論中に使用されるピークメモリを算出しています。llama-bench -m <MODEL> -p 10000 -n 1000 -t 8 -r 3 -ngl 0llama-bench 実行ファイルは、前処理およびトークン生成の平均推論時間を出力します。報告されている推論時間は、-ngl 99 フラグによって有効化された iGPU のものです。

スピード:ベンチマークによると、LFM2-2.6B-Transcript は、60 分に相当する 10K トークンの会議を、16 秒で 1K トークンの要約に変換できます。これは、「一晩かけてジョブをバッチ処理する」用途ではなく、インタラクティブでほぼリアルタイムなワークフローに十分な速度です。

この結果は、それぞれの AMD Ryzen デバイス上で動作する HP Z2 Mini G1a 次世代 AI デスクトップワークステーションにおいて、llama-bench.exe(b7250)を使用して生成されました。以下のコマンドを実行して llama-bench.exe プロセスのピークメモリ使用量を測定することで、CPU 推論中のピークメモリ使用量を算出しています。llama-bench -m <MODEL> -p 10000 -n 1000 -t 8 -r 3 -ngl 0llama-bench 実行ファイルは、前処理およびトークン生成の平均推論時間を出力します。報告されている推論時間は、-ngl 99 フラグによって有効化された iGPU のものです。

LFM2-2.6B-トランスクリプトを使って構築を始める

LFM2-2.6B-Transcriptを体験する最も簡単な方法は、コマンドラインツールの例を使用することです。これは、次の場所にあります。 リキッド AI クックブック

手順:

1。 uvをインストール まだ持っていないなら。インストールしたら、次のコマンドを実行してインストールを確認します。

$ uv --version
uv 0.9.18

2。次の CLI を実行します。 このサンプルトランスクリプト 以下のコマンドで:

uv run
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/summarize.py

API キーはありません。クラウドサービスはありません。セットアップは不要です。リアルタイムのトークン・ストリーミングによる純粋なローカル推論だけです。

3。独自のトランスクリプトファイル (ローカルまたはリモート URL) を渡すこともできます。例えば:

uv run
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/summarize.py \
  --transcript-file
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/transcripts/example_2.txt

このツールは llama.cpp を使用して推論を最適化し、プラットフォーム用のモデルのダウンロードとコンパイルを自動的に処理します。以下をチェックしてください。 フルコードとドキュメンテーション 私たちの料理本で。

ビジネスに役立つオンデバイス会議要約

LFM2.6B-Transcript を使用することで、企業は機密データを公開したり、遅延が発生したり、外部インフラストラクチャに依存したりすることなく、クラウドベースのツールと同等の品質を持つ会議要約を導入できます。

Liquid の効率重視の基盤モデルにより、組織は Liquid と直接連携し、自社のワークフローに合わせて完全にプライベートなオンデバイス会議要約システムを微調整し、導入することが可能です。LEAP を使って自社向けに構築できます。

これらのモデルは、従業員のノートパソコン、安全なワークステーション、または隔離されたシステムなど、完全に企業環境内で実行されます。そのため、トランスクリプト、要約、洞察がデバイス外に出ることはありません。

Liquid はお客様と協力し、エグゼクティブブリーフィング、顧客との面談、社内計画セッションなど、特定の会議タイプに合わせてモデルをカスタマイズすると同時に、お客様のハードウェアフットプリントに合わせてパフォーマンスを最適化します。

その結果、SaaS のようにシームレスな使い心地でありながら、完全に企業の管理下で動作する、本番環境対応のシステムが実現します。

トレードオフなしで企業に最高のクラウド AI を提供します:

  • 会議の形式や用語に合わせて調整された、クラウドレベルの要約品質
  • データ漏えいゼロ。規制環境、機密環境、IP に敏感な環境でも使用可能
  • ネットワーク遅延やスロットリングなしの即時応答
  • システム停止中でも、ベンダーロックインや API 依存は発生しません
  • 予測可能で低い運用コスト。通話ごとやトークンごとの手数料は不要

LFM を使ったビルド

会議の要約は、モデルが小さく、専門性が高く、ハードウェアを認識している場合に可能になることのほんの一例にすぎません。企業は、すべてのワークフローをコストのかかるクラウドモデルにルーティングする代わりに、ラップトップ、エッジデバイス、安全なオンプレミスシステムなど、必要な場所に専用インテリジェンスを展開できます。

特定のタスク向けに小規模で効率的なモデルを高度に専門化するこの方法論は、次のような価値の高い他のユースケースの世界を切り開きます。
パーソナライズされた車載 AI アシスタント
家庭用電化製品におけるカスタマイズされたエクスペリエンス
産業用ロボット
もっと。

AMD ハードウェアで構築 — デバイス上の AI ワークロードに最適化された AMD Ryzen AI 400 シリーズ PC。
さらに詳しく

リキッドの LFM を使ったビルド — シナリオ固有のモデルにより、わずかなコストとエネルギーでクラウド品質のインテリジェンスを提供します。
リキッド AI に今すぐお問い合わせください。

AI を体験する準備はできていますか?

Liquid AI で、ビジネス、ワークフロー、そしてエンジニアの可能性を広げましょう。

プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です