nlpconnect/roberta-base-squad2-nq
nlpconnect
Pregunta y respuesta
Roberta-base-Squad2-NQ es un modelo de comprensión de lectura entrenado en el conjunto de datos SQuAD2.0 y en el corpus de Natural Questions (NQ). El modelo está diseñado para responder a preguntas basadas en texto al extraer segmentos de texto de los pasajes de lectura correspondientes.
Como usar
Para usar el modelo, puedes utilizar el siguiente código en Python:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained('nlpconnect/roberta-base-squad2-nq')
model = AutoModelForQuestionAnswering.from_pretrained('nlpconnect/roberta-base-squad2-nq')
qa_pipeline = pipeline('question-answering', model=model, tokenizer=tokenizer)
context = "Mi nombre es Wolfgang y vivo en Berlín."
question = "¿Dónde vivo?"
result = qa_pipeline({'question': question, 'context': context})
print(result)
Funcionalidades
- Entrenado en SQuAD2.0 y NQ
- Capacidad de manejar preguntas contestables y no contestables
- Soporte para PyTorch y JAX
- Uso de AutoModelForQuestionAnswering de Transformers
- Integrado con Hugging Face Inference API
Casos de uso
- Responder preguntas basadas en textos largos, como artículos de Wikipedia
- Desarrollar sistemas de respuesta a preguntas en línea
- Integrar capacidades de respuesta a preguntas en chatbots
- Investigación en el dominio de la inteligencia artificial y el procesamiento del lenguaje natural