moussaKam/frugalscore_tiny_bert-base_bert-score

moussaKam
Clasificación de texto

FrugalScore es un enfoque para aprender una versión fija y de bajo costo de cualquier métrica NLG costosa, mientras se retiene la mayor parte de su rendimiento original. El objetivo es ofrecer una alternativa económica sin sacrificar significativamente la precisión del modelo. El modelo frugalscore_tiny_bert-base_bert-score utiliza BERT-tiny como estudiante y BERT-Base como profesor, empleando BERTScore como métrica principal.

Como usar

El modelo se puede utilizar para la clasificación de texto y otras tareas de NLG que requieran una métrica precisa y de bajo costo. No tiene suficiente actividad para desplegarse en el API de inferencia todavía.

Funcionalidades

Clasificación de texto
Transformadores
PyTorch
Puntos de inferencia
Preentrenado

Casos de uso

Clasificación de texto
Comparación de la precisión de modelos NLG costosos usando una alternativa de bajo costo
Uso en proyectos que necesitan balancear costo y precisión en tareas de procesamiento de lenguaje natural