nomic-embed-text-v1-unsupervised
nomic-ai
Similitud de oraciones
nomic-embed-text-v1-unsupervised es un codificador de texto con una longitud de contexto de 8192. Este es un punto de control después del preentrenamiento contrastivo desde el entrenamiento contrastivo de múltiples etapas del modelo final. El propósito de liberar este punto de control es open-source los artefactos de entrenamiento de nuestro informe técnico Nomic Embed Text aquí. Si quieres usar un modelo para extraer embeddings, sugerimos usar nomic-embed-text-v1.
Como usar
Funcionalidades
- Encodificador de texto con longitud de contexto de 8192
- Preentrenamiento contrastivo
- Libera artefactos de entrenamiento open-source
Casos de uso
- Extracción de embeddings de texto
- Codificación de texto a largo contexto