datarpit/distilbert-base-uncased-finetuned-natural-questions
datarpit
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos natural_questions. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6267
Como usar
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
import torch
# Cargar el modelo y el tokenizador
model_name = 'datarpit/distilbert-base-uncased-finetuned-natural-questions'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Pregunta y contexto de ejemplo
question = "¿Qué es Hugging Face?"
context = "Hugging Face es una compañía que desarrolla herramientas de aprendizaje automático."
# Tokenizar
inputs = tokenizer(question, context, add_special_tokens=True, return_tensors="pt")
input_ids = inputs['input_ids'].tolist()[0]
# Obtener resultados del modelo
outputs = model(**inputs)
answer_start_scores = outputs[0]
answer_end_scores = outputs[1]
# Encontrar las posiciones de inicio y final con mayor puntuación
answer_start = torch.argmax(answer_start_scores)
answer_end = torch.argmax(answer_end_scores) + 1
# Decodificar la respuesta
answer = tokenizer.decode(input_ids[answer_start:answer_end])
print(f'Respuesta: {answer}')
Funcionalidades
- Versión ajustada de distilbert-base-uncased
- Entrenado con el conjunto de datos natural_questions
- Optimizado con Adam (betas = 0.9, 0.999 y epsilon = 1e-08)
- Scheduler de tasa de aprendizaje: lineal
- Número de épocas: 40
Casos de uso
- Responder a preguntas basadas en el contenido de un contexto dado
- Asistir en sistemas de atención al cliente
- Implementación en chatbots inteligentes
- Soporte en sistemas de búsqueda de información