vishnun/codenlbert-sm
vishnun
Clasificación de texto
Clasificación de código frente a lenguaje natural utilizando bert-small de prajwall. El modelo es capaz de clasificar textos entre código y lenguaje natural con alta precisión, basado en las métricas de entrenamiento alcanzadas.
Como usar
Para utilizar este modelo, puede desplegarlo en los Endpoints de Inferencia dedicados. Ejemplo de cómo utilizar el modelo en un código:
# Ejemplo de código de uso
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained('vishnun/codenlbert-sm')
tokenizer = AutoTokenizer.from_pretrained('vishnun/codenlbert-sm')
input_text = 'Ejemplo de texto de entrada'
inputs = tokenizer(input_text, return_tensors='pt')
outputs = model(**inputs)
print(outputs)
Puede encontrar el paquete Python instalable en el repositorio de GitHub: https://github.com/Vishnunkumar
Funcionalidades
- Clasificación de texto
- Utiliza Transformers
- Compatible con PyTorch
- Compatible con Safetensors
Casos de uso
- Clasificación de fragmentos de texto como código o lenguaje natural
- Proyectos de detección de código en textos
- Investigación y desarrollo en procesamiento de lenguaje natural