Almacena e indexa las representaciones numéricas (embeddings) de tus fragmentos de documentos. Cuando llega una consulta, la base de datos encuentra los fragmentos semánticamente más similares usando búsqueda de vecino más cercano aproximado (ANN) — un algoritmo rápido que encuentra coincidencias cercanas sin comparar contra cada registro. Muchas también soportan búsqueda híbrida, que combina la búsqueda tradicional por palabras clave (BM25) con similitud semántica para mejor recall. La elección de la base de datos vectorial determina la velocidad de recuperación, la escala y la precisión con la que puedes filtrar resultados.
🔎
OpenSearch
Código Abierto · Apache 2.0 · AWS
Fork de Elasticsearch respaldado por AWS con plugin k-NN soportando backends Faiss y Lucene (NMSLIB deprecado desde 2.19, eliminado en 3.0). La elección predeterminada para equipos que necesitan licencia Apache 2.0 con búsqueda híbrida BM25 + ANN madura.
HNSW / IVF / Lucene
Búsqueda Híbrida
Apache 2.0
Ventajas
- Apache 2.0 verdadero — sin sorpresas de licencia para despliegues gestionados
- BM25 + ANN híbrido maduro de serie
- Múltiples backends ANN seleccionables por índice
- Integración sólida con AWS (OpenSearch Serverless)
Desventajas
- Ajuste de JVM requerido para estabilidad en producción
- Throughput ANN por detrás de BDs vectoriales de propósito específico
- Operacionalmente complejo: sharding, heap JVM, pausas GC
🪣
Elasticsearch
SSPL + AGPLv3 + ELv2 · Elastic
El motor de búsqueda distribuido original, ahora con kNN vectorial denso y búsqueda semántica sparse ELSER. El ecosistema más grande de cualquier tecnología de búsqueda; plataforma predeterminada para análisis de logs + búsqueda combinados.
kNN + ELSER
Escala Petabyte
Kibana
Ventajas
- Ecosistema masivo: conectores, herramientas, pool de talento
- Calidad híbrida BM25 + vector de primer nivel
- Ops maduros: ILM, snapshots, dashboards Kibana
- Probado a escala petabyte en múltiples industrias
Desventajas
- ELv2 y SSPL restringen ofertas de servicio gestionado competidor
- Pesado en memoria; excesivo para cargas solo vectoriales
- ANN vectorial denso por detrás de BDs de propósito específico
🚀
Milvus
Código Abierto · Apache 2.0 · LF AI & Data
Base de datos vectorial distribuida de propósito específico. Múltiples tipos de índice (IVF_FLAT, HNSW, DiskANN, SCANN). Despliegue cloud-native en K8s. Opción gestionada vía Zilliz Cloud. Proyecto graduado de LF AI & Data Foundation.
HNSW / IVF / DiskANN
K8s Nativo
Multi-vector / Sparse
Ventajas
- Rendimiento ANN de primer nivel a escala de mil millones de vectores
- Múltiples algoritmos de índice seleccionables por colección
- Proyecto graduado LF AI & Data — gobernanza sólida y modelo K8s cloud-native
- Híbrido sparse + denso nativo (BM25 integrado)
Desventajas
- Complejidad del stack distribuido (etcd, MinIO, Pulsar/Kafka)
- Ecosistema más joven que Elasticsearch
- Soporte BM25 de texto completo añadido tardíamente; menos maduro
🎨
ChromaDB
Código Abierto · Apache 2.0
Almacén vectorial Python-nativo orientado al desarrollador. Se ejecuta en proceso para notebooks o como servidor ligero. Backend HNSW por defecto via hnswlib, con filtrado simple de metadatos. Diseñado para prototipado rápido.
En proceso / Servidor
HNSW (hnswlib)
Python primero
Ventajas
- Configuración cero:
pip install chromadb
- Modo en proceso — sin servidor para notebooks y desarrollo
- Integración de primer nivel con LangChain y LlamaIndex
- Filtrado de metadatos basado en diccionario, simple
Desventajas
- No diseñado para escala de mil millones de vectores en producción
- Servidor de nodo único; sin escalado horizontal nativo
- Sin auth ni multi-tenancy integrados en versión OSS
🌲
Pinecone
SaaS Propietario · Serverless
Base de datos vectorial serverless totalmente gestionada con índices de auto-escalado. Soporta búsqueda híbrida sparse + densa con multi-tenancy basado en namespaces. Opción BYOC (GA 2024) despliega en tu propia cuenta AWS o GCP para soberanía de datos.
Serverless
Híbrido Sparse + Denso
Namespaces
Ventajas
- Completamente sin operaciones — auto-escalado, sin infra
- Híbrido sparse + denso nativo en una sola consulta
- Multi-tenancy por namespace integrado
- El tiempo más rápido a producción de cualquier BD vectorial
Desventajas
- BYOC ejecuta en tu cuenta AWS/GCP pero añade complejidad operacional
- Costo impredecible a altos volúmenes de consultas
- Dependencia de proveedor; sin formato de exportación estándar
🕸️
Weaviate
OSS + Comercial · BSD 3-Clause
BD vectorial con API GraphQL y sistema de módulos conectable (text2vec-openai, text2vec-cohere, reranker-cohere). BM25 híbrido nativo y multi-tenancy con aislamiento de datos por tenant.
API GraphQL
Módulos Vectorizadores
Multi-tenancy
Ventajas
- Módulos vectorizadores integrados (OpenAI, Cohere, HuggingFace)
- Multi-tenancy de producción con aislamiento estricto por tenant
- Búsqueda híbrida BM25 + vector con soporte de re-ranking
- Opción Weaviate Cloud gestionada disponible
Desventajas
- API GraphQL con curva de aprendizaje más pronunciada que REST/SQL
- Definición de esquema requerida de antemano (menos flexible)
- Basado en Go; comunidad más pequeña que ES/OS
🎯
Qdrant
Código Abierto · Apache 2.0 · Rust
Búsqueda vectorial de alto rendimiento en Rust con filtrado rico de payload JSON, cuantización (int8, binaria, de producto) y soporte de vectores sparse. Huella de memoria baja, latencia baja. Autoalojado o Qdrant Cloud.
Rust Nativo
Cuantización
Filtrado de Payload
Ventajas
- Rendimiento Rust — latencia y overhead de memoria muy bajos
- La cuantización reduce memoria 4–32× (escalar, producto, binaria)
- Filtrado avanzado en campos JSON de payload arbitrarios
- Híbrido sparse + denso nativo con BM25 integrado
Desventajas
- Comunidad más pequeña y menos integraciones empresariales
- Historia de multi-tenancy menos madura que Weaviate
- Menos herramientas y madurez cloud gestionada vs. Milvus
🐘
pgvector
Código Abierto · Extensión PostgreSQL
Extensión de PostgreSQL que añade búsqueda por similitud vectorial (coseno/L2 exacto y ANN HNSW/IVF). Almacena embeddings junto a datos relacionales en la misma instancia Postgres ACID — sin servicio separado requerido.
HNSW / IVFFlat
Transacciones ACID
SQL Nativo
Ventajas
- Sin nueva infraestructura — funciona dentro de Postgres existente
- Transacciones ACID: vector + datos relacionales en una sola consulta
- JOINs y filtros SQL estándar sin costo adicional
- Soportado por todos los principales proveedores cloud de Postgres
Desventajas
- Recall ANN y throughput por detrás de BDs vectoriales dedicadas a escala
- La construcción del índice HNSW es lenta para datasets grandes
- No apto para cargas de trabajo de mil millones de vectores o alto QPS
🪣
Amazon S3 Vectors
Gestionado · AWS · Propietario · GA Dic 2025
Almacenamiento vectorial nativo construido directamente en S3 — sin clúster separado. Usa "Vector Buckets" con hasta 10.000 índices, cada uno almacenando hasta 2B vectores float32. Optimizado para cargas RAG de lote y archivado eficientes en costo, no para búsqueda en tiempo real.
2B vectores / índice
Coseno / Euclidiana
~100ms cálido / <1s frío
Ventajas
- S3 nativo — hereda durabilidad de 11 nueves, sin infra separada
- 4.2× más barato que OpenSearch para almacenamiento vectorial masivo (según AWS)
- Pago por consulta, sin capacidad provisionada
- Integración nativa con Bedrock Knowledge Bases
Desventajas
- Latencia 100–800ms — no apto para búsqueda en tiempo real / interactiva
- Solo float32 — sin cuantización, sin embeddings binarios
- Solo métricas coseno y euclidiana; sin búsqueda híbrida texto+vector
- Solo AWS; sin autoalojamiento ni exportación a otros almacenes vectoriales