hf-tiny-model-private/tiny-random-LongformerForQuestionAnswering
hf-tiny-model-private
Pregunta y respuesta
Modelo de Hugging Face para Respuesta a Preguntas basado en Longformer. Este modelo utiliza la biblioteca Transformers y es compatible con PyTorch y TensorFlow. No es lo suficientemente popular para ser desplegado en Inference API (sin servidor) aún. Se puede usar a través de Inference Endpoints (dedicado).
Como usar
Puedes utilizar este modelo para responder preguntas de manera automática. A continuación un ejemplo de cómo utilizarlo:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = "hf-tiny-model-private/tiny-random-LongformerForQuestionAnswering"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
question = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín."
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Respuesta a preguntas
- Basado en Longformer
- Compatible con PyTorch
- Compatible con TensorFlow
- Compatible con Inference Endpoints
Casos de uso
- Responder a preguntas basadas en un contexto específico
- Mejorar sistemas de chatbots
- Automatización de soporte al cliente
- Asistentes virtuales