deberta-v3-base-qa-en

LLukas22
Pregunta y respuesta

Este modelo es un modelo de preguntas y respuestas extractivo. Es una versión ajustada de deberta-v3-base utilizando los siguientes conjuntos de datos: squad_v2, LLukas22/nq-simplified. Fue entrenado como parte de la Tesis de Maestría 'Evaluación de modelos de lenguaje basados en transformadores para uso en sistemas de información de servicio'. El código fuente está disponible en Github.

Como usar

Se puede usar el modelo de la siguiente manera:

from transformers import pipeline

# Hacer predicciones
model_name = 'LLukas22/deberta-v3-base-qa-en'
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)

QA_input = {
  'question': "¿Cuál es mi nombre?",
  'context': "Mi nombre es Clara y vivo en Berkeley."
}

result = nlp(QA_input)
print(result)

Alternativamente, puedes cargar el modelo y el tokenizador por su cuenta:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

# Hacer predicciones
model_name = 'LLukas22/deberta-v3-base-qa-en'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo de Preguntas y Respuestas
Basado en Transformers y PyTorch
Compatible con Safetensors
Entrenado con los conjuntos de datos squad_v2 y LLukas22/nq-simplified

Casos de uso

Respuestas automáticas a preguntas basadas en contexto
Integración en sistemas de información
Asistencia en línea y chatbots