0x7o/rubert-tiny-sensitive-topics
0x7o
Clasificación de texto
Un modelo de clasificación de texto para temas sensibles utilizando transformers. Está optimizado para trabajar con datos en ruso y utiliza la arquitectura bert.
Como usar
Para usar este modelo, necesitarás importar las bibliotecas adecuadas y cargar el modelo desde Hugging Face. Aquí tienes un ejemplo en formato Markdown:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el tokenizador y el modelo
model_name = '0x7o/rubert-tiny-sensitive-topics'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Tokenizar una entrada de ejemplo
inputs = tokenizer('Este es un texto de ejemplo.', return_tensors='pt')
# Realizar la inferencia
outputs = model(**inputs)
Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumenta su visibilidad social y revisa más tarde, o despliega en Inference Endpoints (dedicados) en su lugar.
Funcionalidades
- Clasificación de texto
- Compatibilidad con Transformers
- Disponible en formato Safetensors
- Optimizado para lenguajes sensibles
Casos de uso
- Clasificación de textos relacionados con temas sensibles
- Identificación de contenidos inapropiados en redes sociales y plataformas en línea
- Monitorización y filtrado de contenido en foros y comunidades online
- Análisis de datos en investigación de seguridad y ciencias sociales