csarron/roberta-base-squad-v1
csarron
Pregunta y respuesta
Este modelo fue afinado a partir del punto de control base de Hugging Face RoBERTa en el SQuAD1.1. Este modelo distingue entre mayúsculas y minúsculas: diferencia entre inglés y English.
Como usar
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="csarron/roberta-base-squad-v1",
tokenizer="csarron/roberta-base-squad-v1")
predictions = qa_pipeline({
'context': "El juego se jugó el 7 de febrero de 2016 en el Levi's Stadium en el Área de la Bahía de San Francisco en Santa Clara, California.",
'question': "¿En qué día se jugó el partido?"
})
print(predictions)
# salida:
# {'score': 0.8625259399414062, 'start': 23, 'end': 39, 'answer': 'February 7, 2016'}
Funcionalidades
- Transformers
- PyTorch
- JAX
- Safetensors
- RoBERTa
- Respuesta a preguntas
- roberta-base
- Compatibilidad con Puntos de Inferencia
- Licencia MIT
- Región: EE.UU.
Casos de uso
- Identificación de respuestas a preguntas específicas dentro de un contexto determinado.
- Uso en aplicaciones que requieren entendimiento de lenguaje natural y respuestas inmediatas.
- Integración en sistemas que necesiten procesamiento avanzado de textos a partir de datos en inglés.