dccuchile/albert-base-4-spanish-finetuned-qa-sqac

dccuchile
Pregunta y respuesta

El modelo ALBERT base preentrenado en español y ajustado específicamente para tareas de preguntas y respuestas (QA) en el conjunto de datos SQAC.

Como usar

Este modelo se puede utilizar para tareas de preguntas y respuestas en español. Aquí hay un ejemplo de cómo usarlo con transformadores de Hugging Face:

from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch

tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-4-spanish-finetuned-qa-sqac')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-4-spanish-finetuned-qa-sqac')

context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"

inputs = tokenizer(question, context, return_tensors='pt')
with torch.no_grad():
    outputs = model(**inputs)
answer_start = torch.argmax(outputs.start_logits)
answer_end = torch.argmax(outputs.end_logits) + 1
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))

print(f'Respuesta: {answer}')

Este modelo también se puede utilizar con endpoints de inferencia dedicados.

Funcionalidades

Tareas de preguntas y respuestas
Basado en ALBERT
Utiliza PyTorch
Compatibilidad con endpoints de inferencia

Casos de uso

Resolución de preguntas y respuestas en lenguaje español
Asistentes virtuales que responden preguntas sobre textos proporcionados
Análisis de textos para extracción de información relevante