bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified

mdzrg
Pregunta y respuesta

Este modelo es una versión ajustada de deepset/bert-large-uncased-whole-word-masking-squad2 en el conjunto de datos None. Es un modelo de 'Question Answering' fine-tuned para proporcionar respuestas precisas y basadas en contexto a preguntas.

Como usar

Para usar este modelo, puede seguir los siguientes pasos en código:

from transformers import BertForQuestionAnswering, BertTokenizer
import torch

# cargar el modelo y el tokenizador
model = BertForQuestionAnswering.from_pretrained('mdzrg/bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified')
tokenizer = BertTokenizer.from_pretrained('mdzrg/bert-large-uncased-whole-word-masking-squad2-dev-data-unmodified')

# preparar una pregunta y contexto
question = '¿Qué es Hugging Face?'
context = 'Hugging Face es una empresa que desarrolla tecnologías de procesamiento del lenguaje natural.'

# tokenización
inputs = tokenizer(question, context, return_tensors='pt')

# realizar la inferencia
with torch.no_grad():
    outputs = model(**inputs)

# extraer la respuesta
answer_start = torch.argmax(outputs.start_logits)
answer_end = torch.argmax(outputs.end_logits) + 1

answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
print(f'Respuesta: {answer}')

Funcionalidades

Modelado de lenguaje con transformers
Versiones de evaluación y métricas de entrenamiento disponibles
Compatibilidad con TensorBoard
Uso de Safetensors
Optimizado con Adam y ajustes específicos de hiperparámetros

Casos de uso

Responder preguntas basadas en un contexto dado.
Proveer soporte en aplicaciones de chatbots
Sistemas de atención al cliente automático
Motores de búsqueda inteligentes