textattack/bert-base-uncased-WNLI
Este modelo bert-base-uncased fue afinado para la clasificación de secuencias usando TextAttack y el conjunto de datos glue, cargado usando la biblioteca nlp. El modelo fue afinado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 5e-05, y una longitud máxima de secuencia de 256. Como se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada. La mejor puntuación que el modelo logró en esta tarea fue 0.5633802816901409, medida por la precisión del conjunto de evaluación, encontrada después de 1 época. Para más información, consulte TextAttack en Github.
Como usar
Este modelo fue afinado durante 5 épocas con un tamaño de lote de 64, una tasa de aprendizaje de 5e-05, y una longitud máxima de secuencia de 256. Como se trataba de una tarea de clasificación, el modelo fue entrenado con una función de pérdida de entropía cruzada.
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el modelo y el tokenizador
model_name = 'textattack/bert-base-uncased-WNLI'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Clasificar una secuencia
inputs = tokenizer("Este es un ejemplo de entrada", return_tensors='pt')
outputs = model(**inputs)
predictions = outputs.logits
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- JAX
- Puntos de inferencia
Casos de uso
- Clasificación de secuencias
- Tareas de clasificación de texto en lenguaje natural