0x7o/rubert-tiny-sensitive-topics

0x7o
Clasificación de texto

Un modelo de clasificación de texto para temas sensibles utilizando transformers. Está optimizado para trabajar con datos en ruso y utiliza la arquitectura bert.

Como usar

Para usar este modelo, necesitarás importar las bibliotecas adecuadas y cargar el modelo desde Hugging Face. Aquí tienes un ejemplo en formato Markdown:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Cargar el tokenizador y el modelo
model_name = '0x7o/rubert-tiny-sensitive-topics'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Tokenizar una entrada de ejemplo
inputs = tokenizer('Este es un texto de ejemplo.', return_tensors='pt')

# Realizar la inferencia
outputs = model(**inputs)

Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumenta su visibilidad social y revisa más tarde, o despliega en Inference Endpoints (dedicados) en su lugar.

Funcionalidades

Clasificación de texto
Compatibilidad con Transformers
Disponible en formato Safetensors
Optimizado para lenguajes sensibles

Casos de uso

Clasificación de textos relacionados con temas sensibles
Identificación de contenidos inapropiados en redes sociales y plataformas en línea
Monitorización y filtrado de contenido en foros y comunidades online
Análisis de datos en investigación de seguridad y ciencias sociales

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.