sileod/deberta-v3-base-tasksource-toxicity

sileod
Clasificación de texto

Multitarea ajustada de deberta-base-tasksource para la detección de odio

Como usar

Nombres de prueba

| Nombre de prueba | Precisión en porcentaje (%) | |------------------|---------------------------| | dynahate | 82.8 | | toxic_conversations | 96.0 | | implicit-hate-stg1 | 78.0 | | HatemojiBuild | 70.6 | | tweet_eval/hate | 55.8 | | oasst2_dense_flat/toxicity | 50.996 | | civil_comments/toxicity | 73.046 | | toxigen-data | 78.217 |

Últimos 30 días

Descargas el mes pasado 8

API de Inferencia para Clasificación de Texto

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y revisa más tarde, o despliega en Endpoints de Inferencia (dedicado) en su lugar.

Datasets usados para entrenar

  • sileod/deberta-v3-base-tasksource-toxicity
  • OpenAssistant/oasst2
  • toxigen/toxigen-data
  • HannahRoseKirk/HatemojiBuild

Funcionalidades

Clasificación de texto
Transformadores
PyTorch

Casos de uso

Detección de odio
Identificación de conversaciones tóxicas
Clasificación de tweets de odio