dccuchile/albert-base-4-spanish-finetuned-qa-sqac
dccuchile
Pregunta y respuesta
El modelo ALBERT base preentrenado en español y ajustado específicamente para tareas de preguntas y respuestas (QA) en el conjunto de datos SQAC.
Como usar
Este modelo se puede utilizar para tareas de preguntas y respuestas en español. Aquí hay un ejemplo de cómo usarlo con transformadores de Hugging Face:
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch
tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-4-spanish-finetuned-qa-sqac')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-4-spanish-finetuned-qa-sqac')
context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
inputs = tokenizer(question, context, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
answer_start = torch.argmax(outputs.start_logits)
answer_end = torch.argmax(outputs.end_logits) + 1
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
print(f'Respuesta: {answer}')
Este modelo también se puede utilizar con endpoints de inferencia dedicados.
Funcionalidades
- Tareas de preguntas y respuestas
- Basado en ALBERT
- Utiliza PyTorch
- Compatibilidad con endpoints de inferencia
Casos de uso
- Resolución de preguntas y respuestas en lenguaje español
- Asistentes virtuales que responden preguntas sobre textos proporcionados
- Análisis de textos para extracción de información relevante