j-hartmann/ambiguity-distilroberta-base
j-hartmann
Clasificación de texto
Modelo basado en DistilRoBERTa para la clasificación de texto, alojado en Hugging Face.
Como usar
Este modelo se puede usar para tareas de clasificación de texto. A continuación se muestra un ejemplo de cómo utilizar este modelo en Python:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('j-hartmann/ambiguity-distilroberta-base')
model = AutoModelForSequenceClassification.from_pretrained('j-hartmann/ambiguity-distilroberta-base')
text = "Este truco te hará sonreír"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Basado en la arquitectura DistilRoBERTa
- Compatible con AutoTrain y Endpoints de inferencia
- Implementación en PyTorch
Casos de uso
- Clasificación automática de documentos
- Análisis de sentimientos
- Filtrado de spam
- Detección de ambigüedad en textos