hamzab/roberta-fake-news-classification
hamzab
Clasificación de texto
Este modelo es una versión de roberta-base afinada en el conjunto de datos 'fake-and-real-news-dataset'. Tiene una precisión del 100% en ese conjunto. El modelo toma un artículo de noticias y predice si es verdadero o falso.
Como usar
Para usar este modelo, primero descárgalo desde el sitio web de Hugging Face:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('hamzab/roberta-fake-news-classification')
model = AutoModelForSequenceClassification.from_pretrained('hamzab/roberta-fake-news-classification')
Luego, haz una predicción de la siguiente manera:
import torch
def predict_fake(title, text):
input_str = '' + title + '' + text + ''
input_ids = tokenizer.encode_plus(input_str, max_length=512, padding='max_length', truncation=True, return_tensors='pt')
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model.to(device)
with torch.no_grad():
output = model(input_ids['input_ids'].to(device), attention_mask=input_ids['attention_mask'].to(device))
return dict(zip(['Falso', 'Real'], [x.item() for x in list(torch.nn.Softmax()(output.logits)[0])]))
print(predict_fake('',''))
También puedes usar Gradio para probar el modelo en tiempo real:
import gradio as gr
iface = gr.Interface(fn=predict_fake, inputs=[gr.inputs.Textbox(lines=1, label='titular'), gr.inputs.Textbox(lines=6, label='contenido')], outputs='label').launch(share=True)
Funcionalidades
- Clasificación de texto
- Compatible con Transformers
- Usa PyTorch
- Modelo afinado con 'roberta-base'
- 100% precisión en 'fake-and-real-news-dataset'
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
Casos de uso
- Detección de noticias falsas
- Verificación de la veracidad de artículos de noticias
- Monitoreo de la integridad de la información en medios de comunicación