jeffreykthomas/roberta-fine-tuned-stanford
jeffreykthomas
Pregunta y respuesta
Este modelo es una versión ajustada de RoBERTa para responder preguntas. La integración se realiza mediante la biblioteca Transformers.
Como usar
Para usar este modelo, puedes utilizar el siguiente código en Python con la biblioteca Transformers:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
import torch
model_name = 'jeffreykthomas/roberta-fine-tuned-stanford'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
question = 'Where do I live?'
context = 'My name is Wolfgang and I live in Berlin'
inputs = tokenizer(question, context, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs)
answer_start = torch.argmax(outputs.start_logits)
answer_end = torch.argmax(outputs.end_logits) + 1
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][answer_start:answer_end]))
print(f'Answer: {answer}')
Funcionalidades
- Modelo ajustado para responder preguntas
- Compatible con PyTorch y TensorBoard
- Compatible con endpoints de inferencia
- Utiliza AutoModelForQuestionAnswering y AutoTokenizer
Casos de uso
- Respuestas automáticas a preguntas en aplicaciones de chatbots
- Sistemas de soporte al cliente
- Asistentes virtuales en aplicaciones móviles