albert-base-4-español-destilado-qa-mlqa
dccuchile
Pregunta y respuesta
Modelo de pregunta-respuesta basado en ALBERT. Este modelo utiliza el marco 'transformers' de Hugging Face y está entrenado para responder preguntas en español. Además, es compatible con las bibliotecas PyTorch y puede ser implementado en Endpoints de Inferencia.
Como usar
Para usar este modelo en un entorno de programación, puedes utilizar el siguiente código en Python:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('dccuchile/albert-base-4-spanish-distilled-qa-mlqa')
model = AutoModelForQuestionAnswering.from_pretrained('dccuchile/albert-base-4-spanish-distilled-qa-mlqa')
text = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín"
inputs = tokenizer(text, context, return_tensors='pt')
outputs = model(**inputs)
Puedes probar diferentes contextos como se muestra en los ejemplos proporcionados:
Funcionalidades
- Pregunta-respuesta basada en ALBERT
- Compatible con el marco 'transformers'
- Entrenado con PyTorch
- Compatible con Endpoints de Inferencia
Casos de uso
- Responder preguntas basadas en un contexto dado.
- Automatización de respuesta al cliente.
- Desarrollo de asistentes virtuales en español.