ZTamas/xlm-roberta-large-squad2_impossible_long_answer

ZTamas
Pregunta y respuesta

Este modelo es una versión afinada de deepset/xlm-roberta-large-squad2 en el conjunto de datos milqa.

Como usar

from transformers import pipeline
qa_pipeline = pipeline(
  "question-answering",
  model = "ZTamas/xlm-roberta-large-squad2_impossible_long_answer",
  tokenizer = "ZTamas/xlm-roberta-large-squad2_impossible_long_answer",
  device = 0, # Selección de GPU, -1 en CPU
  handle_imposible_answer = True, 
  max_answer_len = 1000 # Esto puede modificarse, pero para dejar que la respuesta
del modelo sea tan larga como quiera, decidí añadir un número grande
)

predictions = qa_pipeline({
  'context': context,
  'question': question           
})

print(predictions)

Paquetes que se deben instalar para el modelo de roberta grande:

sentencepiece==0.1.97
protobuf==3.20.0

Funcionalidades

Compatibilidad con PyTorch
Optimizado para cuestionarios
Soporta respuestas largas
Compatibilidad con Endpoints de Inferencia
Repositorio público y sin restricción de acceso

Casos de uso

Respuestas a preguntas extensas y detalladas
Implementación de servicios de preguntas y respuestas en diversos dominios
Profesionalización de asistentes virtuales y chatbots