nlpconnect/roberta-base-squad2-nq

nlpconnect
Pregunta y respuesta

Roberta-base-Squad2-NQ es un modelo de comprensión de lectura entrenado en el conjunto de datos SQuAD2.0 y en el corpus de Natural Questions (NQ). El modelo está diseñado para responder a preguntas basadas en texto al extraer segmentos de texto de los pasajes de lectura correspondientes.

Como usar

Para usar el modelo, puedes utilizar el siguiente código en Python:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

tokenizer = AutoTokenizer.from_pretrained('nlpconnect/roberta-base-squad2-nq')
model = AutoModelForQuestionAnswering.from_pretrained('nlpconnect/roberta-base-squad2-nq')

qa_pipeline = pipeline('question-answering', model=model, tokenizer=tokenizer)

context = "Mi nombre es Wolfgang y vivo en Berlín."
question = "¿Dónde vivo?"
result = qa_pipeline({'question': question, 'context': context})
print(result)

Funcionalidades

Entrenado en SQuAD2.0 y NQ
Capacidad de manejar preguntas contestables y no contestables
Soporte para PyTorch y JAX
Uso de AutoModelForQuestionAnswering de Transformers
Integrado con Hugging Face Inference API

Casos de uso

Responder preguntas basadas en textos largos, como artículos de Wikipedia
Desarrollar sistemas de respuesta a preguntas en línea
Integrar capacidades de respuesta a preguntas en chatbots
Investigación en el dominio de la inteligencia artificial y el procesamiento del lenguaje natural