deberta-base-finetuned-squad2

IProject-10
Pregunta y respuesta

DeBERTa base afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer con codificadores. DeBERTa mejora los modelos BERT y RoBERTa utilizando atención desentrelazada y un decodificador de máscara mejorado. Supera a BERT y RoBERTa en la mayoría de las tareas de NLU con 80GB de datos de entrenamiento. Adecuado para tareas de Preguntas y Respuestas, predice segmentos de respuesta dentro del contexto proporcionado.

Como usar

Para Preguntas y Respuestas:

!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/deberta-base-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)

context = """
🤗 Transformers es respaldado por las tres bibliotecas de aprendizaje profundo más populares — Jax, PyTorch y TensorFlow — con una integración
fluida entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""

question = "¿Qué bibliotecas de aprendizaje profundo respaldan a 🤗 Transformers?"
question_answerer(question=question, context=context)

Funcionalidades

Modelo de lenguaje: microsoft/deberta-base
Idioma: Inglés
Tarea de downstream: Preguntas y Respuestas
Datos de entrenamiento: Conjunto de entrenamiento SQuAD 2.0
Datos de evaluación: Conjunto de evaluación SQuAD 2.0
Acelerador de hardware utilizado: GPU Tesla T4

Casos de uso

Tareas de Preguntas y Respuestas
Predicción de segmentos de respuesta dentro de un contexto proporcionado