vishnun/codenlbert-sm

vishnun
Clasificación de texto

Clasificación de código frente a lenguaje natural utilizando bert-small de prajwall. El modelo es capaz de clasificar textos entre código y lenguaje natural con alta precisión, basado en las métricas de entrenamiento alcanzadas.

Como usar

Para utilizar este modelo, puede desplegarlo en los Endpoints de Inferencia dedicados. Ejemplo de cómo utilizar el modelo en un código:

# Ejemplo de código de uso
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained('vishnun/codenlbert-sm')
tokenizer = AutoTokenizer.from_pretrained('vishnun/codenlbert-sm')
input_text = 'Ejemplo de texto de entrada'
inputs = tokenizer(input_text, return_tensors='pt')
outputs = model(**inputs)
print(outputs)

Puede encontrar el paquete Python instalable en el repositorio de GitHub: https://github.com/Vishnunkumar

Funcionalidades

Clasificación de texto
Utiliza Transformers
Compatible con PyTorch
Compatible con Safetensors

Casos de uso

Clasificación de fragmentos de texto como código o lenguaje natural
Proyectos de detección de código en textos
Investigación y desarrollo en procesamiento de lenguaje natural