batterybert-cased-squad-v1

batterydata
Pregunta y respuesta

BatteryBERT-cased es un modelo de lenguaje entrenado específicamente para la mejora de la base de datos de baterías. Está basado en BERT y ha sido ajustado utilizando el conjunto de datos SQuAD v1 para tareas de preguntas y respuestas extractivas. Se diseñó principalmente para aplicaciones en el dominio de dispositivos de batería.

Como usar

importations

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = 'batterydata/batterybert-cased-squad-v1'

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
  'question': '¿Cuál es el electrolito?',
  'contexto': 'El electrolito típico no acuoso para las celdas comerciales de iones de litio es una solución de LiPF6 en carbonatos lineales y cíclicos.'
}
res = nlp(QA_input)

# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Modelo de lenguaje: batterybert-cased
Tarea downstream: Preguntas y respuestas extractivas
Datos de entrenamiento: SQuAD v1
Datos de evaluación: SQuAD v1 y conjunto de datos de dispositivos de batería
Entrenado con una infraestructura de 8x DGX A100
Rendimiento evaluado en conjunto de datos SQuAD v1.0 y conjunto de datos de dispositivos de batería

Casos de uso

Responder preguntas sobre datos de dispositivos de batería
Mejorar bases de datos relacionadas con baterías
Implementar en puntos de inferencia dedicados