roberta-base_squad2.0

AnonymousSub
Pregunta y respuesta

Este modelo es una instancia de `RoBERTa-base` entrenada en el conjunto de datos `SQuAD2.0` para la tarea de `preguntas y respuestas`. Utiliza la biblioteca `transformers` de Hugging Face y es compatible con `PyTorch`. Lamentablemente, no hay una tarjeta de modelo disponible actualmente para más detalles específicos.

Como usar

from transformers import AutoTokenizer, AutoModelForQuestionAnswering
import torch

# Cargamos el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained("AnonymousSub/roberta-base_squad2.0")
model = AutoModelForQuestionAnswering.from_pretrained("AnonymousSub/roberta-base_squad2.0")

# Ejemplo de uso con un contexto y una pregunta
def respond_question(question, context):
    inputs = tokenizer.encode_plus(question, context, return_tensors="pt")
    with torch.no_grad():
        outputs = model(**inputs)
    answer_start_index = outputs.start_logits.argmax()
    answer_end_index = outputs.end_logits.argmax()
    predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
    return tokenizer.decode(predict_answer_tokens)

context = "Mi nombre es Wolfgang y vivo en Berlín"
question = "¿Dónde vivo?"
print(respond_question(question, context))

Funcionalidades

Transformers
PyTorch
roberta
Puntos de Inferencia
Pregunta y respuesta
Compatible con endpoints
Región: US

Casos de uso

Responder preguntas basadas en contexto proporcionado.
Extraer información específica de un cuerpo de texto.
Desarrollar aplicaciones de asistencia virtual o chatbots.