j-hartmann/ambiguity-distilroberta-base

j-hartmann
Clasificación de texto

Modelo basado en DistilRoBERTa para la clasificación de texto, alojado en Hugging Face.

Como usar

Este modelo se puede usar para tareas de clasificación de texto. A continuación se muestra un ejemplo de cómo utilizar este modelo en Python:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('j-hartmann/ambiguity-distilroberta-base')
model = AutoModelForSequenceClassification.from_pretrained('j-hartmann/ambiguity-distilroberta-base')

text = "Este truco te hará sonreír"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Basado en la arquitectura DistilRoBERTa
Compatible con AutoTrain y Endpoints de inferencia
Implementación en PyTorch

Casos de uso

Clasificación automática de documentos
Análisis de sentimientos
Filtrado de spam
Detección de ambigüedad en textos