Liquid AIは、「メモリフットプリントを小さくし、推論の効率を高めながら、あらゆる規模で最先端のパフォーマンス」を実現する「新世代」のジェネレーティブAIモデルの提供を発表しました。リキッド AI は、その大規模言語モデルをリキッドファンデーションモデル (LFM) と呼んでいます。これらの新しい LFM で非常に興味深いのは、ChatGPT (T はトランスフォーマーの略) のようなトランスフォーマー・アーキテクチャーを使用していないことです。この設計上の選択により、LFM のメモリ効率が向上します。