textattack/bert-base-uncased-WNLI

textattack
Clasificación de texto

Este modelo bert-base-uncased fue afinado para la clasificación de secuencias usando TextAttack y el conjunto de datos glue, cargado usando la biblioteca nlp. El modelo fue afinado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 5e-05, y una longitud máxima de secuencia de 256. Como se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.5633802816901409, medida por la precisión del conjunto de evaluación, encontrada después de 1 época. Para más información, consulte TextAttack en Github.

Como usar

Este modelo fue afinado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 5e-05, y una longitud máxima de secuencia de 256. Como se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada.

from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Cargar el modelo y el tokenizador
model_name = 'textattack/bert-base-uncased-WNLI'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Clasificar una secuencia
inputs = tokenizer("Este es un ejemplo de entrada", return_tensors='pt')
outputs = model(**inputs)
predictions = outputs.logits

Funcionalidades

Clasificación de texto
Transformadores
PyTorch
JAX
Puntos de inferencia

Casos de uso

Clasificación de secuencias
Tareas de clasificación de texto en lenguaje natural