deberta-v3-base-qa-en
LLukas22
Pregunta y respuesta
Este modelo es un modelo de preguntas y respuestas extractivo. Es una versión ajustada de deberta-v3-base utilizando los siguientes conjuntos de datos: squad_v2, LLukas22/nq-simplified. Fue entrenado como parte de la Tesis de Maestría 'Evaluación de modelos de lenguaje basados en transformadores para uso en sistemas de información de servicio'. El código fuente está disponible en Github.
Como usar
Se puede usar el modelo de la siguiente manera:
from transformers import pipeline
# Hacer predicciones
model_name = 'LLukas22/deberta-v3-base-qa-en'
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': "¿Cuál es mi nombre?",
'context': "Mi nombre es Clara y vivo en Berkeley."
}
result = nlp(QA_input)
print(result)
Alternativamente, puedes cargar el modelo y el tokenizador por su cuenta:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
# Hacer predicciones
model_name = 'LLukas22/deberta-v3-base-qa-en'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Modelo de Preguntas y Respuestas
- Basado en Transformers y PyTorch
- Compatible con Safetensors
- Entrenado con los conjuntos de datos squad_v2 y LLukas22/nq-simplified
Casos de uso
- Respuestas automáticas a preguntas basadas en contexto
- Integración en sistemas de información
- Asistencia en línea y chatbots