aychang/bert-base-cased-trec-coarse

aychang
Clasificación de texto

Un modelo BERT simple entrenado en el conjunto de datos 'trec'. Este modelo minimalista de lenguaje ha sido entrenado en un conjunto de datos de referencia.

Como usar

# Cargar el modelo y el tokenizador
from transformers import AutoModelForSequenceClassification, AutoTokenizer

model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Usar pipeline
from transformers import pipeline

model_name = "aychang/bert-base-cased-trec-coarse"

nlp = pipeline("sentiment-analysis", model=model_name, tokenizer=model_name)

results = nlp(["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"])
# AdaptNLP
from adaptnlp import EasySequenceClassifier

model_name = "aychang/bert-base-cased-trec-coarse"
texts = ["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"]

classifer = EasySequenceClassifier
results = classifier.tag_text(text=texts, model_name_or_path=model_name, mini_batch_size=2)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
Eval Results
Endpoints de Inferencia

Casos de uso

Análisis de sentimiento
Clasificación de texto por categorías