roberta-base-finetuned-squad2
IProject-10
Pregunta y respuesta
RoBERTa-base afinado en SQuAD 2.0: Modelo de lenguaje basado en codificadores Transformer, preentrenado con enmascaramiento dinámico, sin predicción de la siguiente oración y tamaño de lote aumentado en comparación con BERT. Adecuado para tareas de Preguntas y Respuestas, prediciendo spans de respuesta dentro del contexto proporcionado.
Como usar
Para Preguntas y Respuestas:
!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/roberta-base-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)
context = """
🤗 Transformers es compatible con las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración perfecta entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan a 🤗 Transformers?"
question_answerer(question=question, context=context)
Funcionalidades
- Modelo de lenguaje basado en codificadores Transformer
- Preentrenado con enmascaramiento dinámico
- Sin predicción de la siguiente oración
- Tamaño de lote aumentado en comparación con BERT
- Afinado para la tarea de Preguntas y Respuestas
- Predicción de spans de respuesta dentro del contexto proporcionado
Casos de uso
- Predicción de span de respuestas dentro del contexto proporcionado
- Tareas de Preguntas y Respuestas