今週の CES では、AMD の Liquid AI チームとそのパートナーが、AMD ハードウェア上でローカルに実行される、超高速で信頼性が高く、完全に安全な会議要約機能を通じて、オンデバイス・インテリジェンスの未来を紹介します。
会議には、意思決定、コミットメント、顧客インサイト、アクションアイテムなどの重要なビジネスインテリジェンスが含まれ、多くの場合、機密情報も含まれます。ほとんどの AI 要約ツールでは、こうしたデータをクラウドに送信する必要があり、その結果、遅延や予測不能なコストが発生し、セキュリティやコンプライアンス上のリスクも増大します。
Liquid AI と AMD のチームは協力し、AMD Ryzen™ AI プラットフォーム全体で完全にオンデバイスで実行される、クラウド品質の会議要約モデルを開発・導入しました。
このモデルには以下の特長があります。
- クラウドレベルの要約品質
- 要約は数秒で生成
- RAM 使用量は 3GB 未満
- 大規模な Transformer ベースのベースラインと比較して、待ち時間と消費電力を削減
- CPU、GPU、NPU 全体での完全ローカル実行
このプロジェクトは、ゼロから 2 週間未満で導入され、LFM がどのように「AI Everywhere(どこでも AI)」の動きを推進しているのか、そしてハードウェアを前提に設計された高度に専門化されたモデルをデバイスに展開することで、何が可能になるのかを示しました。
本日、私たちは LFM2-2.6B-Transcript を通じて、この高速かつプライベートな、オンデバイスのエンタープライズグレード会議要約をすべての人に提供します。
Liquid Nano は、長時間の会議文字起こしや実運用ユースケース向けに設計された、専用の Liquid Nano モデルです。クラウドへの依存はなく、データがデバイス外に出ることもなく、パフォーマンスを犠牲にすることもありません。CPU、NPU、GPU を問わず、お好みのハードウェアにデプロイできます。
現在、LEAP および Hugging Face からダウンロード可能です。
LFM2-2.6B-Transcript:クラウド品質の会議要約を完全オンデバイスで
LFM2-2.6B-Transcript は、30〜60 分の会議を長文で要約できるようにトレーニングされています。社内チームミーティング、セールスコール、顧客との会話、取締役会や経営幹部向けブリーフィング、機密性の高いセキュリティクリティカルな会話、オフラインまたは低接続環境のワークフローに最適です。
重要な論点、明確な意思決定、帰属するアクションアイテムを、一貫したフォーマットとトーンで、明確かつ構造化されたアウトプットとして生成します。
最良の結果を得るために、要約対象となる会議の文字起こしは、特定の形式で入力します。
<user_prompt>
Title (example: Claims Processing training module)
Date (example: July 2, 2021)
Time (example: 1:00 PM)
Duration (example: 45 minutes)
Participants (example: Julie Franco (Training Facilitator), Amanda Newman (Subject Matter Expert))
----------
**Speaker 1**: Message 1 (example: **Julie Franco**: Good morning, everyone. Thanks for joining me today.)
**Speaker 2**: Message 2 (example: **Amanda Newman**: Good morning, Julie. Happy to be here.)
etc.
ユーザーが複数のプロンプトを追加したり、1 つのプロンプトに組み合わせたりして、最適な出力形式を作成できるよう、自由形式で設計されています。以下はいくつかの例です。
パフォーマンスとベンチマーク精度:
ベンチマークでは、モデルが gpt-oss-20b を上回り、短い(1K トランスクリプト)ケースでは Qwen3-30B や Claude Sonnet に近いパフォーマンスを示しています。これらはいずれも桁違いに大きなモデルです。長い(10K)トランスクリプトでは、LFM2 モデルは依然として gpt-oss-20b より優れていますが、大幅に大きい Qwen3-30B やクラウドモデルのパフォーマンスにはわずかに及びません。
.png)
メモリ使用量:この構成では、LFM2-2.6B-Transcript は 2.7GB の RAM で 10,000 トークン(約 60 分の会議記録)を処理でき、AI ワークロードに最大 4GB しか割り当てられない一般的な 16GB RAM システムにも問題なく適合します。これは、同等の品質を持つトランスフォーマーモデルに必要とされる数ギガバイトと比べて、はるかに少ないメモリ使用量です。以下の図は、同一のコンテキスト長における RAM 使用量をまとめたものです。この差こそが、LFM2 では 16GB AI PC への完全なオンデバイスデプロイが現実的である一方、従来の多くのトランスフォーマーモデルでは事実上困難である理由です。
.png)
スピード:ベンチマークによると、LFM2-2.6B-Transcript は、60 分に相当する 10K トークンの会議を、16 秒で 1K トークンの要約に変換できます。これは、「一晩かけてジョブをバッチ処理する」用途ではなく、インタラクティブでほぼリアルタイムなワークフローに十分な速度です。
.png)
LFM2-2.6B-トランスクリプトを使って構築を始める
LFM2-2.6B-Transcriptを体験する最も簡単な方法は、コマンドラインツールの例を使用することです。これは、次の場所にあります。 リキッド AI クックブック。
手順:
1。 uvをインストール まだ持っていないなら。インストールしたら、次のコマンドを実行してインストールを確認します。
$ uv --version
uv 0.9.18
2。次の CLI を実行します。 このサンプルトランスクリプト 以下のコマンドで:
uv run
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/summarize.pyAPI キーはありません。クラウドサービスはありません。セットアップは不要です。リアルタイムのトークン・ストリーミングによる純粋なローカル推論だけです。
3。独自のトランスクリプトファイル (ローカルまたはリモート URL) を渡すこともできます。例えば:
uv run
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/summarize.py \
--transcript-file
https://raw.githubusercontent.com/Liquid4All/cookbook/refs/heads/main/examples/meeting-summarization/transcripts/example_2.txt
このツールは llama.cpp を使用して推論を最適化し、プラットフォーム用のモデルのダウンロードとコンパイルを自動的に処理します。以下をチェックしてください。 フルコードとドキュメンテーション 私たちの料理本で。
ビジネスに役立つオンデバイス会議要約
LFM2.6B-Transcript を使用することで、企業は機密データを公開したり、遅延が発生したり、外部インフラストラクチャに依存したりすることなく、クラウドベースのツールと同等の品質を持つ会議要約を導入できます。
Liquid の効率重視の基盤モデルにより、組織は Liquid と直接連携し、自社のワークフローに合わせて完全にプライベートなオンデバイス会議要約システムを微調整し、導入することが可能です。LEAP を使って自社向けに構築できます。
これらのモデルは、従業員のノートパソコン、安全なワークステーション、または隔離されたシステムなど、完全に企業環境内で実行されます。そのため、トランスクリプト、要約、洞察がデバイス外に出ることはありません。
Liquid はお客様と協力し、エグゼクティブブリーフィング、顧客との面談、社内計画セッションなど、特定の会議タイプに合わせてモデルをカスタマイズすると同時に、お客様のハードウェアフットプリントに合わせてパフォーマンスを最適化します。
その結果、SaaS のようにシームレスな使い心地でありながら、完全に企業の管理下で動作する、本番環境対応のシステムが実現します。
トレードオフなしで企業に最高のクラウド AI を提供します:
- 会議の形式や用語に合わせて調整された、クラウドレベルの要約品質
- データ漏えいゼロ。規制環境、機密環境、IP に敏感な環境でも使用可能
- ネットワーク遅延やスロットリングなしの即時応答
- システム停止中でも、ベンダーロックインや API 依存は発生しません
- 予測可能で低い運用コスト。通話ごとやトークンごとの手数料は不要
LFM を使ったビルド
会議の要約は、モデルが小さく、専門性が高く、ハードウェアを認識している場合に可能になることのほんの一例にすぎません。企業は、すべてのワークフローをコストのかかるクラウドモデルにルーティングする代わりに、ラップトップ、エッジデバイス、安全なオンプレミスシステムなど、必要な場所に専用インテリジェンスを展開できます。
特定のタスク向けに小規模で効率的なモデルを高度に専門化するこの方法論は、次のような価値の高い他のユースケースの世界を切り開きます。
パーソナライズされた車載 AI アシスタント、
家庭用電化製品におけるカスタマイズされたエクスペリエンス、
産業用ロボット、
もっと。
AMD ハードウェアで構築 — デバイス上の AI ワークロードに最適化された AMD Ryzen AI 400 シリーズ PC。
さらに詳しく
リキッドの LFM を使ったビルド — シナリオ固有のモデルにより、わずかなコストとエネルギーでクラウド品質のインテリジェンスを提供します。
リキッド AI に今すぐお問い合わせください。