xlmRoberta-for-VietnameseQA
hogger32
Pregunta y respuesta
Este modelo es una versión ajustada de xlm-roberta-base en el conjunto de datos UIT-Viquad_v2. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8315. Ajustado por Honganh Nguyen (FPTU AI Club). Créditos a Viet Nguyen (FPTU AI Club) por los datos de entrenamiento y evaluación.
Como usar
Código para usar el modelo:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = 'hogger32/xlmRoberta-for-VietnameseQA'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Ejemplo de cómo hacer una pregunta
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Datos de entrenamiento: train.json
Datos de evaluación: trial.json
Funcionalidades
- Pipelines de transformers
- Compatibilidad con PyTorch
- Estadísticas de entrenamiento y evaluación detalladas
- Compatibilidad con los puntos finales de inferencia
Casos de uso
- Responder preguntas en vietnamita
- Sistemas de soporte al cliente en vietnamita
- Aplicaciones educativas para generar respuestas automatizadas