Amu/tao-8k
Amu
Similitud de oraciones
Un intento para un modelo de emebedding: El método es el mismo que el de stella-v2, solo extiendo la longitud del contexto en tao. (He encontrado que si quieres usar el contexto completamente-8k, tal vez necesites convertir el modelo a float32). Ahora estoy trabajando en el tao-v2, tendrá una estructura diferente. Liberaré tao-v2 tan rápido como pueda. Gracias a la comunidad de código abierto.
Como usar
Aún no hay suficiente actividad para desplegar este modelo en la API de inferencia (sin servidor). Aumenta su visibilidad social y vuelve a verificar más tarde, o despliega en Inference Endpoints (dedicado) en su lugar.
Funcionalidades
- Similitud de oraciones
- sentence-transformers
- PyTorch
- Chino
- bert
- extracción de características
- mteb
- text-embeddings-inference
- Inference Endpoints
Casos de uso
- Similitud de oraciones
- Extracción de características