xlmRoberta-for-VietnameseQA

hogger32
Pregunta y respuesta

Este modelo es una versión ajustada de xlm-roberta-base en el conjunto de datos UIT-Viquad_v2. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8315. Ajustado por Honganh Nguyen (FPTU AI Club). Créditos a Viet Nguyen (FPTU AI Club) por los datos de entrenamiento y evaluación.

Como usar

Código para usar el modelo:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = 'hogger32/xlmRoberta-for-VietnameseQA'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Ejemplo de cómo hacer una pregunta
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

Datos de entrenamiento: train.json Datos de evaluación: trial.json

Funcionalidades

Pipelines de transformers
Compatibilidad con PyTorch
Estadísticas de entrenamiento y evaluación detalladas
Compatibilidad con los puntos finales de inferencia

Casos de uso

Responder preguntas en vietnamita
Sistemas de soporte al cliente en vietnamita
Aplicaciones educativas para generar respuestas automatizadas