UStackUStack
VectorAI DB icon

VectorAI DB

Actian VectorAI DBは、エッジ/オンプレでセマンティック&ハイブリッド検索をローカル実行。クラウド遅延や従量課金のクラウド依存なし。

VectorAI DB

VectorAI DBとは?

Actian VectorAI DBは、クラウドを超えたセマンティックおよびハイブリッド検索が必要なAIシステム向けのポータブルでローカルファーストのベクトルデータベースです。ベクトル埋め込みを保存し、類似性検索をサポートすることで、アプリケーションはキーワードではなく意味に基づいて結果を取得できます。

製品の主な目的は、クラウド依存やネットワーク遅延が制約となる環境(エッジデバイス、オンプレミスシステム、切断された施設など)でチームがベクトル検索を展開できるようにしつつ、高速で予測可能な検索を実現することです。

主な機能

  • エッジおよびオンプレミス向けローカルファーストベクトルデータベース:クラウドベクトルデータベース呼び出しに依存せずにセマンティック検索を実現。
  • 低遅延をターゲットとしたリアルタイム検索:サイトではサブ100ms動作(「13 milliseconds p99 latency」を含む)を強調し、リアルタイムAIアプリケーション向け。
  • 後同期付きオフライン動作:信頼できるインターネット接続が想定できない切断環境をサポート。
  • 環境横断的なポータブルデプロイモデル:同一アーキテクチャを開発から本番へ、組み込みデバイスからエンタープライズ展開まで対応。
  • 規制・居住要件向けデータ制御:サイトによると、オンプレミス展開でGDPRやHIPAA準拠のデータ居住要件をサポートし、サードパーティクラウド処理を回避。
  • 開発者向けコレクション・クエリフロー:定義したベクトルサイズでコレクション作成、ペイロード付きポイントのupsert、埋め込みベクトルによる検索の例を示す。

VectorAI DBの使い方

  1. Dockerでインストール:
    • docker pull actian/vectorai-db を実行
    • docker run -d -p 50051:50051 actian/vectorai-db でサービス起動
  2. コレクションを作成し、埋め込みモデルに合わせたベクトルパラメータ(例:ベクトルサイズ、距離指標)を設定。
  3. id とオプションの payload メタデータを付与してベクトルをポイントとして挿入。
  4. 類似性で検索:クエリの埋め込みを生成し、ベクトル検索を実行して最も近いマッチ(類似度スコア付き)を返す。

ドキュメントのガイドも、まず小さなアプリを構築し、同じセットアップを対象環境(ラップトップ、組み込みデバイス、オンプレ)へ展開することを強調しています。

ユースケース

  • セマンティック検索を行う組み込みエッジAI:インターネットアクセスが制限・利用不可なRaspberry Piクラスデバイスに展開し、意味ベース検索を実行。
  • 生産最適化のための工場エッジ展開:切断環境のエッジサーバーでベクトル検索を実行し、予測メンテナンス、品質検査、生産最適化などのタスクをサポート。
  • 規制環境向けエアギャップ検索:データが制御されたインフラ内に留まる必要がありクラウドサービスが許可されない環境でローカルファースト設定を使用。
  • ヘルスケアオンプレミス臨床・記録検索:患者データをオンプレミスに保持し、臨床意思決定支援、医療画像ワークフロー、記録検索のためのセマンティック検索を実行(サイトのユースケース記載)。
  • ハイブリッド・マルチサイトプラットフォーム検索:プロトタイプから本番まで一貫したデータベースアプローチで分散サイト(エッジ+オプションクラウド)横断のベクトル検索を管理。

FAQ

VectorAI DBは何に使いますか?

AIアプリケーションが動作する場所近く(エッジ・オンプレミス環境含む)で埋め込みを保存し、セマンティック(およびハイブリッド)検索を実行するベクトルデータベースとして使用します。

VectorAI DBの始め方は?

典型的な開始はDockerでサーバーインストール、ベクトル設定(ベクトルサイズ・距離)付きコレクション作成、メタデータ付きベクトルのupsert、クエリ埋め込みを使った類似性検索です。

切断・オフライン環境をサポートしますか?

サイトによると、接続利用可能時に同期しつつオフラインで動作するよう設計されています。

VectorAI DBはクラウドベクトルデータベースとどう違うのですか?

サイトでは、ローカルファースト動作とネットワーク往復依存の低減を違いとしており、リアルタイムアプリケーションのクエリ遅延を防ぎます。

VectorAI DBは特定の埋め込みモデルに依存しますか?

例では開発者のモデルの embed() 関数を使用しますが、サイトは単一の必須モデルを指定せず、設定は埋め込みベクトルサイズに合わせるものとしています。

代替案

  • オンプレのセルフマネージドベクトルデータベース:同一ベンダーのローカルファーストアプローチの代わりに、自社インフラに展開可能な他のベクトルデータベースシステムを検討;主な違いは、エッジ/オンプレでの一貫した運用に最適化されているかどうか。
  • ハイブリッド検索スタック(ベクトル検索+キーワード検索):キーワードとセマンティック検索の組み合わせが必要なら、両方の検索モードをサポートし、自身のデプロイ環境で動作可能なプラットフォームを探す。
  • エッジ推論+ローカル検索サービス:制約の強い環境では、エッジモデル推論をオンデバイス/エッジホストの検索コンポーネントと組み合わせ可能;トレードオフはアーキテクチャの複雑さと単一データベースベースのワークフローのどちらを取るか。
  • クラウドホスト型ベクトルデータベース:クラウドソリューションは開始が簡単だが、サイトでは遅延とデプロイ制限を理由に、エッジや切断シナリオ向けにローカルファースト展開を推奨。
VectorAI DB | UStack