csarron/roberta-base-squad-v1

csarron
Pregunta y respuesta

Este modelo fue afinado a partir del punto de control base de Hugging Face RoBERTa en el SQuAD1.1. Este modelo distingue entre mayúsculas y minúsculas: diferencia entre inglés y English.

Como usar

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="csarron/roberta-base-squad-v1",
tokenizer="csarron/roberta-base-squad-v1")

predictions = qa_pipeline({
'context': "El juego se jugó el 7 de febrero de 2016 en el Levi's Stadium en el Área de la Bahía de San Francisco en Santa Clara, California.",
'question': "¿En qué día se jugó el partido?"
})

print(predictions)
# salida:
# {'score': 0.8625259399414062, 'start': 23, 'end': 39, 'answer': 'February 7, 2016'}

Funcionalidades

Transformers
PyTorch
JAX
Safetensors
RoBERTa
Respuesta a preguntas
roberta-base
Compatibilidad con Puntos de Inferencia
Licencia MIT
Región: EE.UU.

Casos de uso

Identificación de respuestas a preguntas específicas dentro de un contexto determinado.
Uso en aplicaciones que requieren entendimiento de lenguaje natural y respuestas inmediatas.
Integración en sistemas que necesiten procesamiento avanzado de textos a partir de datos en inglés.