kirito546/phobert-train
kirito546
Pregunta y respuesta
Este es un modelo de 'question-answering' basado en la biblioteca 'transformers' de Hugging Face utilizando PyTorch. El modelo es compatible con TensorBoard y está basado en la arquitectura de RoBERTa. Este modelo aún no tiene suficiente actividad para ser desplegado en Inference API (servidorless), pero se puede desplegar en Inference Endpoints (dedicado).
Como usar
Para utilizar este modelo en una tarea de 'question-answering', puedes usar el siguiente código en Python:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model = AutoModelForQuestionAnswering.from_pretrained('kirito546/phobert-train')
tokenizer = AutoTokenizer.from_pretrained('kirito546/phobert-train')
question = "Where do I live?"
context = "My name is Wolfgang and I live in Berlin."
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Respuesta a preguntas
- Compatible con Transformers
- Utiliza PyTorch
- Compatible con TensorBoard
- Basado en RoBERTa
- Compatible con Inference Endpoints
Casos de uso
- Responder preguntas basadas en el contexto proporcionado
- Desplegar el modelo en endpoints dedicados para uso en aplicaciones reales