Qdrant¶
Qdrant (произносится как quadrant) — это движок поиска по векторному сходству. Он предоставляет готовое к продакшену решение с удобным API для хранения, поиска и управления векторами с дополнительной поддержкой payload и расширенной фильтрации. Это делает его полезным для различных задач: нейросетевого или семантического сопоставления, фасетного поиска и других приложений.
В этом документе показано, как использовать Qdrant с LangChain для плотного (т.е. на основе эмбеддингов), разреженного (т.е. текстового поиска) и гибридного извлечения. Класс QdrantVectorStore поддерживает несколько режимов извлечения через новый Query API Qdrant. Требуется Qdrant версии v1.10.0 или выше.
Установка¶
Существует несколько способов запуска Qdrant, и в зависимости от выбранного варианта будут небольшие различия. Возможные варианты:
- Локальный режим без сервера
- Развертывание через Docker
- Qdrant Cloud
Инструкции по установке см. здесь.
pip install -qU langchain-qdrant
Учетные данные¶
Для запуска кода в этом документе не требуются учетные данные.
Если вы хотите получить автоматическое трассирование вызовов вашей модели высочайшего качества, вы также можете установить ваш API-ключ LangSmith, раскомментировав следующее:
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"
Инициализация¶
Локальный режим¶
Python-клиент позволяет запускать код в локальном режиме без запуска сервера Qdrant. Это отлично подходит для тестирования, отладки или хранения небольшого количества векторов. Эмбеддинги могут храниться полностью в памяти или сохраняться на диск.
В памяти¶
Для некоторых тестовых сценариев и быстрых экспериментов вы можете предпочесть хранить все данные только в памяти, чтобы они удалялись при уничтожении клиента — обычно в конце скрипта или ноутбука.
# | output: false
# | echo: false
from langchain_openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
from langchain_qdrant import QdrantVectorStore
from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams
client = QdrantClient(":memory:")
client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)
Хранение на диске¶
В локальном режиме, без использования сервера Qdrant, вы также можете хранить векторы на диске, чтобы они сохранялись между запусками.
client = QdrantClient(path="/tmp/langchain_qdrant")
client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)
Развертывание на собственном сервере¶
Независимо от того, запускаете ли вы Qdrant локально с помощью контейнера Docker или развертываете в Kubernetes с использованием официального Helm-чарта, способ подключения к такому экземпляру будет одинаковым. Вам нужно указать URL, указывающий на службу.
url = "<---qdrant url here --->"
docs = [] # put docs here
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
collection_name="my_documents",
)
Qdrant Cloud¶
Если вы не хотите заниматься управлением инфраструктурой, вы можете создать полностью управляемый кластер Qdrant в Qdrant Cloud. Для тестирования доступен бесплатный кластер объемом 1 ГБ. Основное отличие при использовании управляемой версии Qdrant — необходимость предоставления API-ключа для защиты вашего развертывания от публичного доступа. Значение также можно установить в переменной окружения QDRANT_API_KEY.
url = "<---qdrant cloud cluster url here --->"
api_key = "<---api key here--->"
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
api_key=api_key,
collection_name="my_documents",
)
Использование существующей коллекции¶
Чтобы получить экземпляр langchain_qdrant.Qdrant без загрузки новых документов или текстов, вы можете использовать метод Qdrant.from_existing_collection().
qdrant = QdrantVectorStore.from_existing_collection(
embedding=embeddings,
collection_name="my_documents",
url="http://localhost:6333",
)
Управление векторным хранилищем¶
После создания векторного хранилища вы можете взаимодействовать с ним, добавляя и удаляя элементы.
Добавление элементов в векторное хранилище¶
Вы можете добавлять элементы в векторное хранилище с помощью функции add_documents.
from uuid import uuid4
from langchain_core.documents import Document
document_1 = Document(
page_content="I had chocolate chip pancakes and scrambled eggs for breakfast this morning.",
metadata={"source": "tweet"},
)
document_2 = Document(
page_content="The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees Fahrenheit.",
metadata={"source": "news"},
)
document_3 = Document(
page_content="Building an exciting new project with LangChain - come check it out!",
metadata={"source": "tweet"},
)
document_4 = Document(
page_content="Robbers broke into the city bank and stole $1 million in cash.",
metadata={"source": "news"},
)
document_5 = Document(
page_content="Wow! That was an amazing movie. I can't wait to see it again.",
metadata={"source": "tweet"},
)
document_6 = Document(
page_content="Is the new iPhone worth the price? Read this review to find out.",
metadata={"source": "website"},
)
document_7 = Document(
page_content="The top 10 soccer players in the world right now.",
metadata={"source": "website"},
)
document_8 = Document(
page_content="LangGraph is the best framework for building stateful, agentic applications!",
metadata={"source": "tweet"},
)
document_9 = Document(
page_content="The stock market is down 500 points today due to fears of a recession.",
metadata={"source": "news"},
)
document_10 = Document(
page_content="I have a bad feeling I am going to get deleted :(",
metadata={"source": "tweet"},
)
documents = [
document_1,
document_2,
document_3,
document_4,
document_5,
document_6,
document_7,
document_8,
document_9,
document_10,
]
uuids = [str(uuid4()) for _ in range(len(documents))]
vector_store.add_documents(documents=documents, ids=uuids)
Удаление элементов из векторного хранилища¶
vector_store.delete(ids=[uuids[-1]])
True
Запрос к векторному хранилищу¶
После создания векторного хранилища и добавления соответствующих документов вы, скорее всего, захотите выполнять к нему запросы во время выполнения цепочки или агента.
Прямой запрос¶
Простейший сценарий использования векторного хранилища Qdrant — выполнение поиска по сходству. Под капотом наш запрос кодируется в векторные эмбеддинги и используется для поиска похожих документов в коллекции Qdrant.
results = vector_store.similarity_search(
"LangChain provides abstractions to make working with LLMs easy", k=2
)
for res in results:
print(f"* {res.page_content} [{res.metadata}]")
* Building an exciting new project with LangChain - come check it out! [{'source': 'tweet', '_id': 'd3202666-6f2b-4186-ac43-e35389de8166', '_collection_name': 'demo_collection'}]
* LangGraph is the best framework for building stateful, agentic applications! [{'source': 'tweet', '_id': '91ed6c56-fe53-49e2-8199-c3bb3c33c3eb', '_collection_name': 'demo_collection'}]
QdrantVectorStore поддерживает 3 режима поиска по сходству. Их можно настроить с помощью параметра retrieval_mode.
- Плотный векторный поиск (по умолчанию)
- Разреженный векторный поиск
- Гибридный поиск
Плотный векторный поиск¶
Плотный векторный поиск включает вычисление сходства с помощью векторных эмбеддингов. Для поиска только с плотными векторами:
- Параметр
retrieval_modeдолжен быть установлен вRetrievalMode.DENSE. Это поведение по умолчанию. - Значение плотных эмбеддингов должно быть передано в параметр
embedding.
from langchain_qdrant import QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with dense vectors
client.create_collection(
collection_name="my_documents",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
embedding=embeddings,
retrieval_mode=RetrievalMode.DENSE,
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
Разреженный векторный поиск¶
Для поиска только с разреженными векторами:
- Параметр
retrieval_modeдолжен быть установлен вRetrievalMode.SPARSE. - Реализация интерфейса
SparseEmbeddingsс использованием любого провайдера разреженных эмбеддингов должна быть передана в параметрsparse_embedding.
Пакет langchain-qdrant предоставляет реализацию на основе FastEmbed «из коробки».
Для её использования установите пакет FastEmbed.
pip install -qU fastembed
from langchain_qdrant import FastEmbedSparse, QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient, models
from qdrant_client.http.models import Distance, SparseVectorParams, VectorParams
sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with sparse vectors
client.create_collection(
collection_name="my_documents",
vectors_config={"dense": VectorParams(size=3072, distance=Distance.COSINE)},
sparse_vectors_config={
"sparse": SparseVectorParams(index=models.SparseIndexParams(on_disk=False))
},
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
sparse_embedding=sparse_embeddings,
retrieval_mode=RetrievalMode.SPARSE,
sparse_vector_name="sparse",
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
Гибридный векторный поиск¶
Для выполнения гибридного поиска с использованием плотных и разреженных векторов с объединением оценок:
- Параметр
retrieval_modeдолжен быть установлен вRetrievalMode.HYBRID. - Значение плотных эмбеддингов должно быть передано в параметр
embedding. - Реализация интерфейса
SparseEmbeddingsс использованием любого провайдера разреженных эмбеддингов должна быть передана в параметрsparse_embedding.
Обратите внимание: если вы добавили документы в режиме HYBRID, вы можете переключаться на любой режим поиска, так как в коллекции доступны как плотные, так и разреженные векторы.
from langchain_qdrant import FastEmbedSparse, QdrantVectorStore, RetrievalMode
from qdrant_client import QdrantClient, models
from qdrant_client.http.models import Distance, SparseVectorParams, VectorParams
sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")
# Create a Qdrant client for local storage
client = QdrantClient(path="/tmp/langchain_qdrant")
# Create a collection with both dense and sparse vectors
client.create_collection(
collection_name="my_documents",
vectors_config={"dense": VectorParams(size=3072, distance=Distance.COSINE)},
sparse_vectors_config={
"sparse": SparseVectorParams(index=models.SparseIndexParams(on_disk=False))
},
)
qdrant = QdrantVectorStore(
client=client,
collection_name="my_documents",
embedding=embeddings,
sparse_embedding=sparse_embeddings,
retrieval_mode=RetrievalMode.HYBRID,
vector_name="dense",
sparse_vector_name="sparse",
)
qdrant.add_documents(documents=documents, ids=uuids)
query = "How much money did the robbers steal?"
found_docs = qdrant.similarity_search(query)
found_docs
Если вы хотите выполнить поиск по сходству и получить соответствующие оценки, вы можете запустить:
results = vector_store.similarity_search_with_score(
query="Will it be hot tomorrow", k=1
)
for doc, score in results:
print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.531834] The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees. [{'source': 'news', '_id': '9e6ba50c-794f-4b88-94e5-411f15052a02', '_collection_name': 'demo_collection'}]
Полный список всех функций поиска, доступных для QdrantVectorStore, см. в справочнике API.
Фильтрация по метаданным¶
Qdrant имеет расширенную систему фильтрации с поддержкой богатых типов. В LangChain также можно использовать фильтры, передавая дополнительный параметр в методы similarity_search_with_score и similarity_search.
from qdrant_client import models
results = vector_store.similarity_search(
query="Who are the best soccer players in the world?",
k=1,
filter=models.Filter(
should=[
models.FieldCondition(
key="page_content",
match=models.MatchValue(
value="The top 10 soccer players in the world right now."
),
),
]
),
)
for doc in results:
print(f"* {doc.page_content} [{doc.metadata}]")
* The top 10 soccer players in the world right now. [{'source': 'website', '_id': 'b0964ab5-5a14-47b4-a983-37fa5c5bd154', '_collection_name': 'demo_collection'}]
Запрос через преобразование в retriever¶
Вы также можете преобразовать векторное хранилище в retriever для удобного использования в цепочках.
retriever = vector_store.as_retriever(search_type="mmr", search_kwargs={"k": 1})
retriever.invoke("Stealing from the bank is a crime")
[Document(metadata={'source': 'news', '_id': '50d8d6ee-69bf-4173-a6a2-b254e9928965', '_collection_name': 'demo_collection'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]
Использование для генерации с извлечением (RAG)¶
Руководства по использованию этого векторного хранилища для генерации с извлечением (retrieval-augmented generation, RAG) см. в следующих разделах:
Настройка Qdrant¶
Существуют варианты использования существующей коллекции Qdrant в приложении LangChain. В таких случаях может потребоваться определить, как сопоставлять точку Qdrant с объектом LangChain Document.
Именованные векторы¶
Qdrant поддерживает несколько векторов на одну точку с помощью именованных векторов. Если вы работаете с коллекцией, созданной извне, или хотите использовать вектор с другим именем, вы можете настроить его, указав имя.
from langchain_qdrant import RetrievalMode
QdrantVectorStore.from_documents(
docs,
embedding=embeddings,
sparse_embedding=sparse_embeddings,
location=":memory:",
collection_name="my_documents_2",
retrieval_mode=RetrievalMode.HYBRID,
vector_name="custom_vector",
sparse_vector_name="custom_sparse_vector",
)
Метаданные¶
Qdrant хранит векторные эмбеддинги вместе с необязательным JSON-подобным payload. Payload необязателен, но поскольку LangChain предполагает, что эмбеддинги генерируются из документов, мы сохраняем контекстные данные, чтобы можно было извлечь исходные тексты.
По умолчанию ваш документ будет сохранен в следующей структуре payload:
{
"page_content": "Lorem ipsum dolor sit amet",
"metadata": {
"foo": "bar"
}
}
Однако вы можете использовать другие ключи для содержимого страницы и метаданных. Это полезно, если у вас уже есть коллекция, которую вы хотите повторно использовать.
QdrantVectorStore.from_documents(
docs,
embeddings,
location=":memory:",
collection_name="my_documents_2",
content_payload_key="my_page_content_key",
metadata_payload_key="my_meta",
)
Справочник API¶
Подробная документация по всем функциям и конфигурациям QdrantVectorStore доступна в справочнике API: python.langchain.com/api_reference/qdrant/qdrant/langchain_qdrant.qdrant.QdrantVectorStore.html
Source: https://docs.langchain.com/oss/python/integrations/vectorstores/qdrant