IProject-10/bert-base-uncased-finetuned-squad2
IProject-10
Pregunta y respuesta
BERTbase afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer de Encoder, preentrenado con Modelado de Lenguaje Enmascarado y Predicción de Siguiente Oración. Apropiado para tareas de Preguntas y Respuestas, predice los fragmentos de respuesta dentro del contexto proporcionado.
Como usar
Para Preguntas y Respuestas -
!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/bert-base-uncased-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)
context = """
🤗 Transformers está respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración fluida entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer(question=question, context=context)
Funcionalidades
- Modelo de lenguaje: bert-base-uncased
- Idioma: Inglés
- Tarea downstream: Preguntas y Respuestas
- Datos de entrenamiento: Conjunto de entrenamiento SQuAD 2.0
- Datos de evaluación: Conjunto de evaluación SQuAD 2.0
- Acelerador de hardware usado: GPU Tesla T4
Casos de uso
- Tareas de Preguntas y Respuestas
- Predicción de fragmentos de respuesta dentro del contexto proporcionado