swulling/bge-reranker-large-onnx-o4
swulling
Clasificación de texto
El modelo 'bge-reranker-large-onnx-o4' es un modelo de clasificación de texto basado en ONNX y compatible con AutoTrain y Inference Endpoints. Utiliza la biblioteca 'transformers' y está optimizado para la inferencia con GPU. Este modelo es especialmente útil para la clasificación de secuencias y ha sido entrenado con el modelo 'xlm-roberta'.
Como usar
# pip install "optimum[onnxruntime-gpu]" transformers
from optimum.onnxruntime import ORTModelForSequenceClassification
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('swulling/bge-reranker-large-onnx-o4')
model = ORTModelForSequenceClassification.from_pretrained('swulling/bge-reranker-large-onnx-o4')
model.to("cuda")
pairs = [['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']]
with torch.no_grad():
inputs = tokenizer(pairs, padding=True, truncation=True, return_tensors='pt', max_length=512)
scores = model(**inputs, return_dict=True).logits.view(-1, ).float()
print(scores)
Funcionalidades
- Clasificación de texto
- Basado en ONNX
- Compatible con AutoTrain
- Compatible con Puntos de Inferencia
- Optimizado para inferencia con GPU
- Entrenado con xlm-roberta
- Licencia MIT
Casos de uso
- Clasificación de secuencias de texto
- Reclasificación de respuestas
- Optimización de respuestas en sistemas de preguntas y respuestas