Amu/tao-8k

Amu
Similitud de oraciones

Un intento para un modelo de emebedding: El método es el mismo que el de stella-v2, solo extiendo la longitud del contexto en tao. (He encontrado que si quieres usar el contexto completamente-8k, tal vez necesites convertir el modelo a float32). Ahora estoy trabajando en el tao-v2, tendrá una estructura diferente. Liberaré tao-v2 tan rápido como pueda. Gracias a la comunidad de código abierto.

Como usar

Aún no hay suficiente actividad para desplegar este modelo en la API de inferencia (sin servidor). Aumenta su visibilidad social y vuelve a verificar más tarde, o despliega en Inference Endpoints (dedicado) en su lugar.

Funcionalidades

Similitud de oraciones
sentence-transformers
PyTorch
Chino
bert
extracción de características
mteb
text-embeddings-inference
Inference Endpoints

Casos de uso

Similitud de oraciones
Extracción de características