batterybert-cased-squad-v1
batterydata
Pregunta y respuesta
BatteryBERT-cased es un modelo de lenguaje entrenado específicamente para la mejora de la base de datos de baterías. Está basado en BERT y ha sido ajustado utilizando el conjunto de datos SQuAD v1 para tareas de preguntas y respuestas extractivas. Se diseñó principalmente para aplicaciones en el dominio de dispositivos de batería.
Como usar
importations
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = 'batterydata/batterybert-cased-squad-v1'
# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
'question': '¿Cuál es el electrolito?',
'contexto': 'El electrolito típico no acuoso para las celdas comerciales de iones de litio es una solución de LiPF6 en carbonatos lineales y cíclicos.'
}
res = nlp(QA_input)
# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Modelo de lenguaje: batterybert-cased
- Tarea downstream: Preguntas y respuestas extractivas
- Datos de entrenamiento: SQuAD v1
- Datos de evaluación: SQuAD v1 y conjunto de datos de dispositivos de batería
- Entrenado con una infraestructura de 8x DGX A100
- Rendimiento evaluado en conjunto de datos SQuAD v1.0 y conjunto de datos de dispositivos de batería
Casos de uso
- Responder preguntas sobre datos de dispositivos de batería
- Mejorar bases de datos relacionadas con baterías
- Implementar en puntos de inferencia dedicados