BERT-Base Uncased SQuADv1

jimypbr
Pregunta y respuesta

BERT-Base Uncased entrenado en respuesta a preguntas con SQuAD. Este modelo es ideal para tareas de comprensión de lectura y atención en el texto, evaluado en el conjunto de datos SQuAD con métricas de precisión y F1 altas.

Como usar

Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Para usar este modelo en puntos finales de inferencia dedicados:

# Ejemplo de uso del modelo
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='jimypbr/bert-base-uncased-squad')

context = 'Tu texto de contexto aquí...'
question = 'Tu pregunta aquí...'

result = qa_pipeline(question=question, context=context)
print(result)

Funcionalidades

Modelo BERT base sin mayúsculas
Entrenado en el conjunto de datos SQuAD para respuesta a preguntas
Soporte para puntos finales de inferencia con Transformers y PyTorch

Casos de uso

Responder preguntas basadas en un contexto dado
Mejorar la comprensión de textos largos
Desarrollar aplicaciones de atención al cliente automatizadas