distilbert-base-clasificación-de-categoría-noticias

Yueh-Huan
Clasificación de texto

Este repositorio proporciona un modelo distilbert entrenado en 210k titulares de noticias desde 2012 hasta 2022 de HuffPost. El modelo fue entrenado por Yue. Los datos de entrenamiento se pueden encontrar en la siguiente URL de Kaggle.

Como usar

Cómo usar el modelo

from transformers import DistilBertTokenizer, TFDistilBertForSequenceClassification
import tensorflow as tf

model_name = 'Yueh-Huan/news-category-classification-distilbert'
tokenizer = DistilBertTokenizer.from_pretrained(model_name)
model = TFDistilBertForSequenceClassification.from_pretrained(model_name)

inputs = tokenizer("Ejemplo de titular de noticia", return_tensors="tf")
outputs = model(inputs)
logits = outputs.logits

# Procesar logits para obtener la categoría

Funcionalidades

Clasificación de texto
Transformadores
TensorFlow
Licencia: openrail

Casos de uso

Clasificación de titulares de noticias
Análisis de contenido de noticias