車載 AI 向けビジョン言語モデル展開の加速
挑戦

ある世界的な自動車メーカーが組み込みたかった 車載用リアルタイムの音声とビジョン AI モデルは、対象車両が積んでいるミッドティアのCPUで動かすには遅すぎました。llama.cpp での実装に何ヶ月も費やしたにもかかわらず、 推論速度が遅く、 更に ハードウェアによる制限から、導入を断念せざるを得ない状況でした。

主な障害:

  • パフォーマンスのボトルネック: 約1年かけて構築したVLMは、既存のハードウェアで満足に動かなかった
  • 統合のハードル: レスポンスタイム(初回トークンまでの時間 /TTFT)が許容値を大幅に超えていた

リソースの制約: 結果、ハードウェアのアップグレードなしでは納得のいく サービスを実装出来なかった

弊社のソリューション

Liquid AIは、自動車メーカーの既存CPU上で従来の10倍のスピードで動作する、ハードウェア最適化済みのVLMを提供しました。Edge SDKを活用し、精度を損なうことなくモデルサイズを50%削減し、わずか1週間で本番環境対応のソリューションを導入しました。

結果

自動車メーカーは、ハードウェアのアップグレードなしで、車両内でリアルタイムなAIインタラクションを実現しました。

  • 初回トークン生成までの時間が10倍高速化
  • モデルサイズを50%削減(性能低下なし)
  • 導入期間を数ヶ月から1週間に短縮
  • 既存ハードウェアで音声/ビジョンAIのリアルタイム処理が可能に
AI を体験する準備はできていますか?

Liquid AI でビジネス、ワークフロー、エンジニアを強化しましょう

プリファレンスを管理

当社は、お客様のブラウジング体験を向上させ、トラフィックを分析するためにクッキーを使用しています。「すべて同意する」をクリックすると、クッキーの使用に同意したものとみなされます。

さらに詳しく
  • 必須クッキーが必要です