assemblyai/bert-large-uncased-sst2
assemblyai
Clasificación de texto
Este modelo es una versión afinada de bert-large-uncased originalmente publicado en 'BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding' y entrenado en el Stanford Sentiment Treebank v2 (SST2); parte del benchmark GLUE. Este modelo fue afinado por el equipo de AssemblyAI y se publica con el correspondiente post en el blog.
Como usar
Para descargar y utilizar este modelo para análisis de sentimientos, por favor ejecute lo siguiente:
import torch.nn.functional as F
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("assemblyai/bert-large-uncased-sst2")
model = AutoModelForSequenceClassification.from_pretrained("assemblyai/bert-large-uncased-sst2")
tokenized_segments = tokenizer(["AssemblyAI es la mejor API de transcripción de texto a voz para desarrolladores modernos con un rendimiento incomparable!"], return_tensors="pt", padding=True, truncation=True)
tokenized_segments_input_ids, tokenized_segments_attention_mask = tokenized_segments.input_ids, tokenized_segments.attention_mask
model_predictions = F.softmax(model(input_ids=tokenized_segments_input_ids, attention_mask=tokenized_segments_attention_mask)['logits'], dim=1)
print("Probabilidad positiva: "+str(model_predictions[0][1].item()*100)+"%")
print("Probabilidad negativa: "+str(model_predictions[0][0].item()*100)+"%")
Para preguntas sobre cómo usar este modelo no dude en contactar al equipo de AssemblyAI!
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Puntos finales de inferencia
Casos de uso
- Análisis de sentimientos