bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified
mdzrg
Pregunta y respuesta
Este modelo es una versión ajustada de deepset/bert-large-uncased-whole-word-masking-squad2 en el conjunto de datos None. Es un modelo de 'Question Answering' fine-tuned para proporcionar respuestas precisas y basadas en contexto a preguntas.
Como usar
Para usar este modelo, puede seguir los siguientes pasos en código:
from transformers import BertForQuestionAnswering, BertTokenizer
import torch
# cargar el modelo y el tokenizador
model = BertForQuestionAnswering.from_pretrained('mdzrg/bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified')
tokenizer = BertTokenizer.from_pretrained('mdzrg/bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified')
# preparar una pregunta y contexto
question = '¿Qué es Hugging Face?'
context = 'Hugging Face es una empresa que desarrolla tecnologías de procesamiento del lenguaje natural.'
# tokenización
inputs = tokenizer(question, context, return_tensors='pt')
# realizar la inferencia
with torch.no_grad():
outputs = model(**inputs)
# extraer la respuesta
answer_start = torch.argmax(outputs.start_logits)
answer_end = torch.argmax(outputs.end_logits) + 1
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
print(f'Respuesta: {answer}')
Funcionalidades
- Modelado de lenguaje con transformers
- Versiones de evaluación y métricas de entrenamiento disponibles
- Compatibilidad con TensorBoard
- Uso de Safetensors
- Optimizado con Adam y ajustes específicos de hiperparámetros
Casos de uso
- Responder preguntas basadas en un contexto dado.
- Proveer soporte en aplicaciones de chatbots
- Sistemas de atención al cliente automático
- Motores de búsqueda inteligentes