MIT からスピンオフした基盤モデル企業である Liquid AI は、2024 年 10 月 23 日に開催される限定発表イベントで最初の製品を発表します。これらの革新的な製品は、Liquid Foundation Models (LFM) を活用し、オンデバイス コンピューティングおよびプライベートなオンプレミスのエンタープライズ ユース ケース向けに、最先端のパフォーマンスとより効率的でスケーラブルなソリューションを提供します。
MITのスピンオフであり基盤モデル企業であるLiquid AIは、2024年10月23日水曜日の午前10時から午後1時(東部標準時)にMITのクレスゲ講堂で開催される限定イベントで最初の製品を発表します。今すぐ登録して直接参加するか、ライブ ストリームで視聴してください。
このイベントでは、Liquid AI の先駆的な Liquid Foundation Models (LFM) を使用して構築された、金融サービス、バイオテクノロジー、家庭用電化製品向けの AI 製品が紹介されます。LFM は、トレーニング中と推論中の両方で、これまで可能であったものを超えて大幅に小さいメモリ使用量を維持しながら、あらゆる規模で最先端のパフォーマンスを実現する新世代の生成 AI モデルです。これにより、特にオンデバイスおよび民間企業のユースケースが可能になります。
1,000 人以上の AI リーダー、科学者、経営者がこの待望のイベントに参加します。 Liquid AI の LFM は、AI アプリケーションの環境を強化し、AI システムの品質、制御、効率、説明可能性の向上を求める業界に強力なソリューションを提供することを約束します。
Liquid AIのCEO兼共同創設者であるラミン・ハサニ氏は、今回の製品発売の重要性を次のように強調した:「当社のLiquid Foundationモデルは、あらゆるデータモダリティのあらゆる規模で汎用AIシステムのスケーリング則を向上させます。当社の最初の言語LFMシリーズは、オンデバイスメモリの占有面積を小さく保ちながら、あらゆる規模で最先端のパフォーマンスを実現します。これにより、リアルタイムのローカルAIアプリケーションの新たな可能性が開かれ、当社の企業顧客はヘビークラウドの制限を受けることなくAIを活用できるようになります」依存性または大規模なメモリ要件。」
Liquid AI の LFM は、計算効率を高めながら、複数ステップの推論や長いコンテキストの呼び出しなどの複雑なタスクを処理できるように設計されています。 1B、3B、および 40B 構成で利用可能な言語 LFM の最初のシリーズは、さまざまなドメインにわたって堅牢なパフォーマンスと幅広い知識容量を提供し、スキルの中でも特に質問応答、翻訳、構成、要約などのタスクを解決できるようにします。
リキッド ファンデーション モデルの主な特徴は次のとおりです。
- 信頼性の高い意思決定のための品質の向上: LFM は高度な知識能力を提供し、知識ベースのタスクで優れた能力を発揮できるようにします。
- 効率による持続可能性: メモリ使用量が削減され、推論速度がほぼ一定であるため、LFM はトレーニングと展開の両方で非常に効率的です。オンデバイス コンピューティング機能により、クラウド サービスへの依存が最小限に抑えられ、コストとエネルギー消費が削減されます。
- 説明可能性の強化: 第一原理に基づいて構築された LFM は、トランスフォーマーベースのアーキテクチャよりもホワイトボックスでの説明可能性を高め、ユーザーがモデルの意思決定プロセスをよりよく理解し、管理できるようにします。
- Liquid AI のモデルは汎用性が高く、業界全体に適用でき、自然言語処理、音声分析、ビデオ認識、およびあらゆる連続マルチモーダル データに対する高性能ソリューションを提供します。
リキッドAIについて
Liquid AI は人工知能イノベーションの最前線にあり、パフォーマンスと効率の新たな基準を設定する基礎モデルを開発しています。あらゆる規模で有能かつ効率的な汎用 AI システムを構築するという使命を持った Liquid AI は、AI テクノロジーで可能なことの限界を押し広げ続けています。
お問い合わせ
プレスに関するすべてのお問い合わせは、press@liquid.ai までご連絡ください