aychang/bert-base-cased-trec-coarse
aychang
Clasificación de texto
Un modelo BERT simple entrenado en el conjunto de datos 'trec'. Este modelo minimalista de lenguaje ha sido entrenado en un conjunto de datos de referencia.
Como usar
# Cargar el modelo y el tokenizador
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Usar pipeline
from transformers import pipeline
model_name = "aychang/bert-base-cased-trec-coarse"
nlp = pipeline("sentiment-analysis", model=model_name, tokenizer=model_name)
results = nlp(["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"])
# AdaptNLP
from adaptnlp import EasySequenceClassifier
model_name = "aychang/bert-base-cased-trec-coarse"
texts = ["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"]
classifer = EasySequenceClassifier
results = classifier.tag_text(text=texts, model_name_or_path=model_name, mini_batch_size=2)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- JAX
- Eval Results
- Endpoints de Inferencia
Casos de uso
- Análisis de sentimiento
- Clasificación de texto por categorías