nomic-embed-text-v1-unsupervised

nomic-ai
Similitud de oraciones

nomic-embed-text-v1-unsupervised es un codificador de texto con una longitud de contexto de 8192. Este es un punto de control después del preentrenamiento contrastivo desde el entrenamiento contrastivo de múltiples etapas del modelo final. El propósito de liberar este punto de control es open-source los artefactos de entrenamiento de nuestro informe técnico Nomic Embed Text aquí. Si quieres usar un modelo para extraer embeddings, sugerimos usar nomic-embed-text-v1.

Como usar

Funcionalidades

Encodificador de texto con longitud de contexto de 8192
Preentrenamiento contrastivo
Libera artefactos de entrenamiento open-source

Casos de uso

Extracción de embeddings de texto
Codificación de texto a largo contexto