sileod/deberta-v3-base-tasksource-toxicity
Multitarea ajustada de deberta-base-tasksource para la detección de odio
Como usar
Nombres de prueba
| Nombre de prueba | Precisión en porcentaje (%) |
|------------------|---------------------------|
| dynahate | 82.8 |
| toxic_conversations | 96.0 |
| implicit-hate-stg1 | 78.0 |
| HatemojiBuild | 70.6 |
| tweet_eval/hate | 55.8 |
| oasst2_dense_flat/toxicity | 50.996 |
| civil_comments/toxicity | 73.046 |
| toxigen-data | 78.217 |
Últimos 30 días
Descargas el mes pasado
8
API de Inferencia para Clasificación de Texto
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y revisa más tarde, o despliega en Endpoints de Inferencia (dedicado) en su lugar.
Datasets usados para entrenar
- sileod/deberta-v3-base-tasksource-toxicity
- OpenAssistant/oasst2
- toxigen/toxigen-data
- HannahRoseKirk/HatemojiBuild
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
Casos de uso
- Detección de odio
- Identificación de conversaciones tóxicas
- Clasificación de tweets de odio