bert-base-uncased-squad-v1
batterydata
Pregunta y respuesta
BERT-base-uncased entrena para la tarea de respuesta a preguntas extractivas usando SQuAD v1. El modelo está optimizado para la inferencia en dispositivos de batería. Ofrece precisión y capacidad F1 notablemente altas.
Como usar
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "batterydata/bert-base-uncased-squad-v1"
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Qué es el electrolito?',
'context': 'El electrolito no acuoso típico para celdas comerciales de Li-ion es una solución de LiPF6 en carbonatos lineales y cíclicos.'
}
res = nlp(QA_input)
# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Respuesta a preguntas extractivas
- Optimización para inferencia
- Evaluado con SQuAD v1 y dataset de dispositivos de batería
- Modelo de lenguaje: bert-base-uncased
- Tarea downstream: QA Extractiva
Casos de uso
- Responder a preguntas sobre datos de dispositivos de batería
- Mejorar las bases de datos con modelos de lenguaje preentrenados