
挑戦
大手スマートフォンブランドは、リアルタイムのオンデバイス翻訳を必要としていました。しかし従来のモデルでは、RAMの消費が多く、ライブ会話には処理が遅すぎ、さらに多言語間での柔軟な適応も困難でした。
主な障害:
- メモリ制約:高いRAM使用量が多言語サポートを制限
- 推論の遅延:パフォーマンスの低下がリアルタイム用途に影響
- 複雑なカスタマイズ:特定の言語ペア向けの最適化が困難
弊社のソリューション
LiquidのカスタマイズスタックとEdge SDKを活用し、軽量な言語特化型モデルを構築。スマートフォン向けに、低メモリ消費と高速処理を実現しました。
結果
このブランドは、RAMが限られた環境でも、複数のデバイス上で迅速かつ高精度な翻訳を実現しました。
- メモリ使用量を大幅に削減
- ライブ会話に対応するリアルタイム翻訳速度
- 優先言語向けにカスタマイズされたモデル
- 非MLチームでもモデルを簡単に導入可能