roberta-base_squad2.0
AnonymousSub
Pregunta y respuesta
Este modelo es una instancia de `RoBERTa-base` entrenada en el conjunto de datos `SQuAD2.0` para la tarea de `preguntas y respuestas`. Utiliza la biblioteca `transformers` de Hugging Face y es compatible con `PyTorch`. Lamentablemente, no hay una tarjeta de modelo disponible actualmente para más detalles específicos.
Como usar
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch
# Cargamos el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained("AnonymousSub/roberta-base_squad2.0")
model = AutoModelForQuestionAnswering.from_pretrained("AnonymousSub/roberta-base_squad2.0")
# Ejemplo de uso con un contexto y una pregunta
def respond_question(question, context):
inputs = tokenizer.encode_plus(question, context, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
answer_start_index = outputs.start_logits.argmax()
answer_end_index = outputs.end_logits.argmax()
predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
return tokenizer.decode(predict_answer_tokens)
context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
print(respond_question(question, context))
Funcionalidades
- Transformers
- PyTorch
- roberta
- Puntos de Inferencia
- Pregunta y respuesta
- Compatible con endpoints
- Región: US
Casos de uso
- Responder preguntas basadas en contexto proporcionado.
- Extraer información específica de un cuerpo de texto.
- Desarrollar aplicaciones de asistencia virtual o chatbots.