roberta-base-finetuned-squad2

IProject-10
Pregunta y respuesta

RoBERTa-base afinado en SQuAD 2.0: Modelo de lenguaje basado en codificadores Transformer, preentrenado con enmascaramiento dinámico, sin predicción de la siguiente oración y tamaño de lote aumentado en comparación con BERT. Adecuado para tareas de Preguntas y Respuestas, prediciendo spans de respuesta dentro del contexto proporcionado.

Como usar

Para Preguntas y Respuestas:

!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/roberta-base-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)

context = """
🤗 Transformers es compatible con las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración perfecta entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""

question = "¿Qué bibliotecas de aprendizaje profundo respaldan a 🤗 Transformers?"
question_answerer(question=question, context=context)

Funcionalidades

Modelo de lenguaje basado en codificadores Transformer
Preentrenado con enmascaramiento dinámico
Sin predicción de la siguiente oración
Tamaño de lote aumentado en comparación con BERT
Afinado para la tarea de Preguntas y Respuestas
Predicción de spans de respuesta dentro del contexto proporcionado

Casos de uso

Predicción de span de respuestas dentro del contexto proporcionado
Tareas de Preguntas y Respuestas