bert-large-uncased-qqp

yoshitomo-matsubara
Clasificación de texto

BERT-uncased de gran tamaño ajustado en el conjunto de datos QQP, utilizando torchdistill y Google Colab. Los hiperparámetros son los mismos que en el ejemplo de Hugging Face y/o en el artículo de BERT, y la configuración de entrenamiento (incluidos los hiperparámetros) está disponible aquí. Envié archivos de predicción al ranking GLUE, y la puntuación total de GLUE fue 80.2.

Como usar

El modelo se puede utilizar para la clasificación de texto. Aquí tienes las instrucciones de uso:

1. Carga los hiperparámetros desde la configuración provista:
# Código de ejemplo
import torch
from transformers import BertTokenizer, BertForSequenceClassification

model_name = 'yoshitomo-matsubara/bert-large-uncased-qqp'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)

text = 'Tu texto aquí'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
bert
glue
torchdistill
Puntos finales de inferencia

Casos de uso

Clasificación de preguntas pares en análisis de datos
Filtrado de contenido duplicado
Detección de preguntas similares en foros en línea