datarpit/distilbert-base-uncased-finetuned-natural-questions

datarpit
Pregunta y respuesta

Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos natural_questions. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6267

Como usar

from transformers import AutoModelForQuestionAnswering, AutoTokenizer
import torch

# Cargar el modelo y el tokenizador
model_name = 'datarpit/distilbert-base-uncased-finetuned-natural-questions'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Pregunta y contexto de ejemplo
question = "¿Qué es Hugging Face?"
context = "Hugging Face es una compañía que desarrolla herramientas de aprendizaje automático."

# Tokenizar
inputs = tokenizer(question, context, add_special_tokens=True, return_tensors="pt")
input_ids = inputs['input_ids'].tolist()[0]

# Obtener resultados del modelo
outputs = model(**inputs)
answer_start_scores = outputs[0]
answer_end_scores = outputs[1]

# Encontrar las posiciones de inicio y final con mayor puntuación
answer_start = torch.argmax(answer_start_scores)
answer_end = torch.argmax(answer_end_scores) + 1

# Decodificar la respuesta
answer = tokenizer.decode(input_ids[answer_start:answer_end])
print(f'Respuesta: {answer}')

Funcionalidades

Versión ajustada de distilbert-base-uncased
Entrenado con el conjunto de datos natural_questions
Optimizado con Adam (betas = 0.9, 0.999 y epsilon = 1e-08)
Scheduler de tasa de aprendizaje: lineal
Número de épocas: 40

Casos de uso

Responder a preguntas basadas en el contenido de un contexto dado
Asistir en sistemas de atención al cliente
Implementación en chatbots inteligentes
Soporte en sistemas de búsqueda de información