BERT-Base Uncased SQuADv1
jimypbr
Pregunta y respuesta
BERT-Base Uncased entrenado en respuesta a preguntas con SQuAD. Este modelo es ideal para tareas de comprensión de lectura y atención en el texto, evaluado en el conjunto de datos SQuAD con métricas de precisión y F1 altas.
Como usar
Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Para usar este modelo en puntos finales de inferencia dedicados:
# Ejemplo de uso del modelo
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='jimypbr/bert-base-uncased-squad')
context = 'Tu texto de contexto aquí...'
question = 'Tu pregunta aquí...'
result = qa_pipeline(question=question, context=context)
print(result)
Funcionalidades
- Modelo BERT base sin mayúsculas
- Entrenado en el conjunto de datos SQuAD para respuesta a preguntas
- Soporte para puntos finales de inferencia con Transformers y PyTorch
Casos de uso
- Responder preguntas basadas en un contexto dado
- Mejorar la comprensión de textos largos
- Desarrollar aplicaciones de atención al cliente automatizadas