albert-base-4-español-destilado-qa-mlqa

dccuchile
Pregunta y respuesta

Modelo de pregunta-respuesta basado en ALBERT. Este modelo utiliza el marco 'transformers' de Hugging Face y está entrenado para responder preguntas en español. Además, es compatible con las bibliotecas PyTorch y puede ser implementado en Endpoints de Inferencia.

Como usar

Para usar este modelo en un entorno de programación, puedes utilizar el siguiente código en Python:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-4-spanish-distilled-qa-mlqa')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-4-spanish-distilled-qa-mlqa')

text = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín"

inputs = tokenizer(text, context, return_tensors='pt')
outputs = model(**inputs)

Puedes probar diferentes contextos como se muestra en los ejemplos proporcionados:

Funcionalidades

Pregunta-respuesta basada en ALBERT
Compatible con el marco 'transformers'
Entrenado con PyTorch
Compatible con Endpoints de Inferencia

Casos de uso

Responder preguntas basadas en un contexto dado.
Automatización de respuesta al cliente.
Desarrollo de asistentes virtuales en español.