deberta-base-finetuned-squad2
IProject-10
Pregunta y respuesta
DeBERTa base afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer con codificadores. DeBERTa mejora los modelos BERT y RoBERTa utilizando atención desentrelazada y un decodificador de máscara mejorado. Supera a BERT y RoBERTa en la mayoría de las tareas de NLU con 80GB de datos de entrenamiento. Adecuado para tareas de Preguntas y Respuestas, predice segmentos de respuesta dentro del contexto proporcionado.
Como usar
Para Preguntas y Respuestas:
!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/deberta-base-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)
context = """
🤗 Transformers es respaldado por las tres bibliotecas de aprendizaje profundo más populares — Jax, PyTorch y TensorFlow — con una integración
fluida entre ellas. Es sencillo entrenar tus modelos con una antes de cargarlos para la inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan a 🤗 Transformers?"
question_answerer(question=question, context=context)
Funcionalidades
- Modelo de lenguaje: microsoft/deberta-base
- Idioma: Inglés
- Tarea de downstream: Preguntas y Respuestas
- Datos de entrenamiento: Conjunto de entrenamiento SQuAD 2.0
- Datos de evaluación: Conjunto de evaluación SQuAD 2.0
- Acelerador de hardware utilizado: GPU Tesla T4
Casos de uso
- Tareas de Preguntas y Respuestas
- Predicción de segmentos de respuesta dentro de un contexto proporcionado