bert-large-uncased-qqp
yoshitomo-matsubara
Clasificación de texto
BERT-uncased de gran tamaño ajustado en el conjunto de datos QQP, utilizando torchdistill y Google Colab. Los hiperparámetros son los mismos que en el ejemplo de Hugging Face y/o en el artículo de BERT, y la configuración de entrenamiento (incluidos los hiperparámetros) está disponible aquí. Envié archivos de predicción al ranking GLUE, y la puntuación total de GLUE fue 80.2.
Como usar
El modelo se puede utilizar para la clasificación de texto. Aquí tienes las instrucciones de uso:
1. Carga los hiperparámetros desde la configuración provista:
# Código de ejemplo
import torch
from transformers import BertTokenizer, BertForSequenceClassification
model_name = 'yoshitomo-matsubara/bert-large-uncased-qqp'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)
text = 'Tu texto aquí'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- bert
- glue
- torchdistill
- Puntos finales de inferencia
Casos de uso
- Clasificación de preguntas pares en análisis de datos
- Filtrado de contenido duplicado
- Detección de preguntas similares en foros en línea