RuBERTConv Toxic Classifier
IlyaGusev
Clasificación de texto
Basado en el modelo 'rubert-base-cased-conversational'. Este modelo de procesamiento del lenguaje natural se usa para la clasificación de texto y está entrenado específicamente para detectar contenido tóxico en ruso. Utiliza transformadores y PyTorch, y es adecuado para implementaciones de puntos finales de inferencia.
Como usar
Colab: [link](URL del link)
from transformers import pipeline
model_name = "IlyaGusev/rubertconv_toxic_clf"
pipe = pipeline("text-classification", model=model_name, tokenizer=model_name, framework="pt")
text = "Ты придурок из интернета"
pipe([text])
Funcionalidades
- Clasificación de texto
- Basado en el modelo rubert-base-cased-conversational
- Soporte para PyTorch
- Utiliza transformadores
- Entrenado con datos de múltiples fuentes rusas
Casos de uso
- Detección de contenido tóxico en redes sociales
- Moderación de comentarios en plataformas en línea
- Análisis de conversaciones para identificar lenguaje inapropiado