hf-tiny-model-private/tiny-random-LongformerForQuestionAnswering

hf-tiny-model-private
Pregunta y respuesta

Modelo de Hugging Face para Respuesta a Preguntas basado en Longformer. Este modelo utiliza la biblioteca Transformers y es compatible con PyTorch y TensorFlow. No es lo suficientemente popular para ser desplegado en Inference API (sin servidor) aún. Se puede usar a través de Inference Endpoints (dedicado).

Como usar

Puedes utilizar este modelo para responder preguntas de manera automática. A continuación un ejemplo de cómo utilizarlo:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "hf-tiny-model-private/tiny-random-LongformerForQuestionAnswering"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

question = "¿Dónde vivo?"
context = "Mi nombre es Wolfgang y vivo en Berlín."
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Respuesta a preguntas
Basado en Longformer
Compatible con PyTorch
Compatible con TensorFlow
Compatible con Inference Endpoints

Casos de uso

Responder a preguntas basadas en un contexto específico
Mejorar sistemas de chatbots
Automatización de soporte al cliente
Asistentes virtuales