distilbert-base-uncased-finetuned-mnli-amazon-query-shopping

LiYuan
Clasificación de texto

Este modelo es una versión refinada de distilbert-base-uncased en un conjunto de datos de consultas de compras en Amazon. DistilBERT es un modelo de transformadores, más pequeño y rápido que BERT, que fue preentrenado en el mismo corpus de manera auto supervisada, utilizando el modelo base de BERT como maestro. Esto significa que fue preentrenado solo en textos sin procesar, sin que los humanos los etiquetaran de ninguna manera (por lo cual puede usar muchos datos disponibles públicamente), con un proceso automático para generar entradas y etiquetas a partir de esos textos utilizando el modelo base de BERT. Reemplazamos su cabeza con nuestra categoría de relevancia de compras para entrenarlo con 571,223 filas del conjunto de entrenamiento y validarlo con 142,806 filas del conjunto de desarrollo. Finalmente, evaluamos el rendimiento de nuestro modelo en un conjunto de prueba retenido: 79,337 filas. El modelo no distingue entre 'english' e 'English'.

Como usar

Puedes usar este modelo directamente descargando los pesos y configuraciones entrenados con el siguiente fragmento de código:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("LiYuan/amazon-query-product-ranking")

model = AutoModelForSequenceClassification.from_pretrained("LiYuan/amazon-query-product-ranking")

Funcionalidades

Clasificación de textos
Modelo de transformadores
Implementación en PyTorch
Integración con TensorBoard
Generado a partir de Trainer

Casos de uso

Predecir la relevancia entre una consulta y una descripción de producto
Reclasificar el orden de relevancia de productos dados una consulta en la plataforma de Amazon o en otras plataformas de comercio electrónico