ruRoberta-large-RuCoLa-v1

s-nlp
Clasificación de texto

Este es un modelo ruRoberta-large entrenado en el conjunto de datos RuCoLa. Puede ser utilizado para clasificar oraciones rusas en fluentes o no fluentes, donde la fluidez se entiende como aceptabilidad lingüística.

Como usar

Parámetros de entrenamiento:

  • Optimizador: Adam
  • lr=2e-6
  • batch_size=32
  • epochs=10
  • clip_grad_norm=1.0
# Ejemplo de uso del modelo
from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('s-nlp/ruRoberta-large-RuCoLa-v1')
model = AutoModelForSequenceClassification.from_pretrained('s-nlp/ruRoberta-large-RuCoLa-v1')
inputs = tokenizer('Ты мне нравишься. Я тебя люблю', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Compatibilidad con Transformers
Compatibilidad con PyTorch
Uso de Safetensors
Entrenado en ruso
Compatible con AutoTrain
Compatible con Endpoints de Inferencia

Casos de uso

Clasificación de oraciones rusas como fluidas o no fluidas
Evaluación de la aceptabilidad lingüística de textos en ruso
Implementación en aplicaciones que requieren verificación de la fluidez del lenguaje