bert-base-spanish-wwm-cased-finetuned-squad2-es-finetuned-sqac
MMG
Pregunta y respuesta
Este modelo es una versión ajustada de ockapuh/bert-base-spanish-wwm-cased-finetuned-squad2-es en el conjunto de datos sqac. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.9263, 'exact_match': 65.55793991416309, 'f1': 82.72322701572416.
Como usar
# Ejemplo de uso
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
import torch
model_name = 'MMG/bert-base-spanish-wwm-cased-finetuned-squad2-es-finetuned-sqac'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
def answer_question(question, context):
# Tokenización de entrada
inputs = tokenizer.encode_plus(question, context, return_tensors='pt')
input_ids = inputs['input_ids'].tolist()[0]
# Obtener puntuaciones de respuesta
outputs = model(**inputs)
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits
# Obtener índices de tokens de respuesta
answer_start = torch.argmax(answer_start_scores)
answer_end = torch.argmax(answer_end_scores) + 1
# Convertir tokens a la respuesta final
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(input_ids[answer_start:answer_end]))
return answer
context = 'Tu contexto aquí'
question = 'Tu pregunta aquí'
print(answer_question(question, context))
Funcionalidades
- Fine-tuned en el conjunto de datos sqac
- Logra una pérdida de 0.9263
- Exactitud de coincidencia: 65.55793991416309
- F1 score: 82.72322701572416
Casos de uso
- Respuesta a preguntas
- Asistencia en la búsqueda de información
- Mejora de sistemas de pregunta-respuesta en español