distilbert-base-clasificación-de-categoría-noticias
Yueh-Huan
Clasificación de texto
Este repositorio proporciona un modelo distilbert entrenado en 210k titulares de noticias desde 2012 hasta 2022 de HuffPost. El modelo fue entrenado por Yue. Los datos de entrenamiento se pueden encontrar en la siguiente URL de Kaggle.
Como usar
Cómo usar el modelo
from transformers import DistilBertTokenizer, TFDistilBertForSequenceClassification
import tensorflow as tf
model_name = 'Yueh-Huan/news-category-classification-distilbert'
tokenizer = DistilBertTokenizer.from_pretrained(model_name)
model = TFDistilBertForSequenceClassification.from_pretrained(model_name)
inputs = tokenizer("Ejemplo de titular de noticia", return_tensors="tf")
outputs = model(inputs)
logits = outputs.logits
# Procesar logits para obtener la categoría
Funcionalidades
- Clasificación de texto
- Transformadores
- TensorFlow
- Licencia: openrail
Casos de uso
- Clasificación de titulares de noticias
- Análisis de contenido de noticias