assemblyai/bert-large-uncased-sst2

assemblyai
Clasificación de texto

Este modelo es una versión afinada de bert-large-uncased originalmente publicado en 'BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding' y entrenado en el Stanford Sentiment Treebank v2 (SST2); parte del benchmark GLUE. Este modelo fue afinado por el equipo de AssemblyAI y se publica con el correspondiente post en el blog.

Como usar

Para descargar y utilizar este modelo para análisis de sentimientos, por favor ejecute lo siguiente:

import torch.nn.functional as F
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("assemblyai/bert-large-uncased-sst2")
model = AutoModelForSequenceClassification.from_pretrained("assemblyai/bert-large-uncased-sst2")

tokenized_segments = tokenizer(["AssemblyAI es la mejor API de transcripción de texto a voz para desarrolladores modernos con un rendimiento incomparable!"], return_tensors="pt", padding=True, truncation=True)
tokenized_segments_input_ids, tokenized_segments_attention_mask = tokenized_segments.input_ids, tokenized_segments.attention_mask
model_predictions = F.softmax(model(input_ids=tokenized_segments_input_ids, attention_mask=tokenized_segments_attention_mask)['logits'], dim=1)

print("Probabilidad positiva: "+str(model_predictions[0][1].item()*100)+"%")
print("Probabilidad negativa: "+str(model_predictions[0][0].item()*100)+"%")

Para preguntas sobre cómo usar este modelo no dude en contactar al equipo de AssemblyAI!

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Puntos finales de inferencia

Casos de uso

Análisis de sentimientos