IProject-10/bert-base-uncased-finetuned-squad2

IProject-10
Pregunta y respuesta

BERTbase afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer de Encoder, preentrenado con Modelado de Lenguaje Enmascarado y Predicción de Siguiente Oración. Apropiado para tareas de Preguntas y Respuestas, predice los fragmentos de respuesta dentro del contexto proporcionado.

Como usar

Para Preguntas y Respuestas -

!pip install transformers
from transformers import pipeline

model_checkpoint = "IProject-10/bert-base-uncased-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)

context = """
🤗 Transformers está respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración fluida entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer(question=question, context=context)

Funcionalidades

Modelo de lenguaje: bert-base-uncased
Idioma: Inglés
Tarea downstream: Preguntas y Respuestas
Datos de entrenamiento: Conjunto de entrenamiento SQuAD 2.0
Datos de evaluación: Conjunto de evaluación SQuAD 2.0
Acelerador de hardware usado: GPU Tesla T4

Casos de uso

Tareas de Preguntas y Respuestas
Predicción de fragmentos de respuesta dentro del contexto proporcionado