declutr-emanuals-techqa

AnonymousSub
Pregunta y respuesta

Un modelo de preguntas y respuestas basado en Transformers, utilizando PyTorch y RoBERTa. Este modelo está diseñado para responder preguntas basadas en un contexto dado.

Como usar

Para utilizar este modelo, se pueden seguir los siguientes ejemplos de uso:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

# Cargar el modelo y el tokenizador
model_name = 'AnonymousSub/declutr-emanuals-techqa'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Contexto de ejemplo
contexto = "My name is Wolfgang and I live in Berlin"
pregunta = "Where do I live?"

# Tokenización
inputs = tokenizer(pregunta, contexto, return_tensors='pt')

# Inferencia
outputs = model(**inputs)

# La respuesta estará contenida en los outputs

El modelo puede procesar preguntas sencillas como "Where do I live?" con diferentes contextos. Aquí hay una lista de ejemplos de preguntas y contextos utilizados para probar el modelo:

  • Pregunta: "Where do I live?" Contexto: "My name is Wolfgang and I live in Berlin"
  • Pregunta: "Where do I live?" Contexto: "My name is Sarah and I live in London"
  • Pregunta: "What's my name?" Contexto: "My name is Clara and I live in Berkeley."
  • Pregunta: "Which name is also used to describe the Amazon rainforest in English?" Contexto: "The Amazon rainforest (Portuguese: Floresta Amazônica or Amazônia; Spanish: Selva Amazónica, Amazonía or usually Amazonia; French: Forêt amazonienne; Dutch: Amazoneregenwoud), also known in English as Amazonia or the Amazon Jungle, is a moist broadleaf forest that covers most of the Amazon basin of South America..."

Funcionalidades

Soporte para Transformers
Implementación en PyTorch
Basado en el modelo RoBERTa
Compatible con endpoints de inferencia
Optimizado para preguntas y respuestas

Casos de uso

Responder preguntas basadas en datos contextuales
Asistencia a través de chatbots
Sistemas de soporte al cliente
Búsqueda de información en documentos grandes