ZTamas/xlm-roberta-large-squad2_impossible_long_answer
ZTamas
Pregunta y respuesta
Este modelo es una versión afinada de deepset/xlm-roberta-large-squad2 en el conjunto de datos milqa.
Como usar
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model = "ZTamas/xlm-roberta-large-squad2_impossible_long_answer",
tokenizer = "ZTamas/xlm-roberta-large-squad2_impossible_long_answer",
device = 0, # Selección de GPU, -1 en CPU
handle_imposible_answer = True,
max_answer_len = 1000 # Esto puede modificarse, pero para dejar que la respuesta
del modelo sea tan larga como quiera, decidí añadir un número grande
)
predictions = qa_pipeline({
'context': context,
'question': question
})
print(predictions)
Paquetes que se deben instalar para el modelo de roberta grande:
sentencepiece==0.1.97
protobuf==3.20.0
Funcionalidades
- Compatibilidad con PyTorch
- Optimizado para cuestionarios
- Soporta respuestas largas
- Compatibilidad con Endpoints de Inferencia
- Repositorio público y sin restricción de acceso
Casos de uso
- Respuestas a preguntas extensas y detalladas
- Implementación de servicios de preguntas y respuestas en diversos dominios
- Profesionalización de asistentes virtuales y chatbots