moussaKam/frugalscore_tiny_bert-base_bert-score
moussaKam
Clasificación de texto
FrugalScore es un enfoque para aprender una versión fija y de bajo costo de cualquier métrica NLG costosa, mientras se retiene la mayor parte de su rendimiento original. El objetivo es ofrecer una alternativa económica sin sacrificar significativamente la precisión del modelo. El modelo frugalscore_tiny_bert-base_bert-score utiliza BERT-tiny como estudiante y BERT-Base como profesor, empleando BERTScore como métrica principal.
Como usar
El modelo se puede utilizar para la clasificación de texto y otras tareas de NLG que requieran una métrica precisa y de bajo costo. No tiene suficiente actividad para desplegarse en el API de inferencia todavía.
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- Puntos de inferencia
- Preentrenado
Casos de uso
- Clasificación de texto
- Comparación de la precisión de modelos NLG costosos usando una alternativa de bajo costo
- Uso en proyectos que necesitan balancear costo y precisión en tareas de procesamiento de lenguaje natural