metadata-cls-no-gov-8k-v2

gechim
Clasificación de texto

Este modelo es una versión entrenada de vinai/phobert-base-v2 en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3052, Precisión: 0.9447, F1: 0.7927

Como usar

Para utilizar este modelo, puede usar el siguiente fragmento de código:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

modelo = "gechim/metadata-cls-no-gov-8k-v2"
tokenizer = AutoTokenizer.from_pretrained(modelo)
modelo = AutoModelForSequenceClassification.from_pretrained(modelo)

oracion = "I like you. I love you"
inputs = tokenizer(oracion, return_tensors="pt")
outputs = modelo(**inputs)

Funcionalidades

Clasificación de texto
Compatibilidad con transformers
Uso de safetensors
Modelo basado en roberta
Generado a partir de un entrenador
Compatibilidad con AutoTrain
Compatible con puntos de inferencia

Casos de uso

Clasificación de documentos de texto
Análisis de sentimientos
Filtrado de contenido
Etiquetado automático de datos