hamzab/roberta-fake-news-classification

hamzab
Clasificación de texto

Este modelo es una versión de roberta-base afinada en el conjunto de datos 'fake-and-real-news-dataset'. Tiene una precisión del 100% en ese conjunto. El modelo toma un artículo de noticias y predice si es verdadero o falso.

Como usar

Para usar este modelo, primero descárgalo desde el sitio web de Hugging Face:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('hamzab/roberta-fake-news-classification')

model = AutoModelForSequenceClassification.from_pretrained('hamzab/roberta-fake-news-classification')

Luego, haz una predicción de la siguiente manera:

import torch
def predict_fake(title, text):
    input_str = '' + title + '' + text + ''
    input_ids = tokenizer.encode_plus(input_str, max_length=512, padding='max_length', truncation=True, return_tensors='pt')
    device = 'cuda' if torch.cuda.is_available() else 'cpu'
    model.to(device)
    with torch.no_grad():
        output = model(input_ids['input_ids'].to(device), attention_mask=input_ids['attention_mask'].to(device))
    return dict(zip(['Falso', 'Real'], [x.item() for x in list(torch.nn.Softmax()(output.logits)[0])]))

print(predict_fake('',''))

También puedes usar Gradio para probar el modelo en tiempo real:

import gradio as gr
iface = gr.Interface(fn=predict_fake, inputs=[gr.inputs.Textbox(lines=1, label='titular'), gr.inputs.Textbox(lines=6, label='contenido')], outputs='label').launch(share=True)

Funcionalidades

Clasificación de texto
Compatible con Transformers
Usa PyTorch
Modelo afinado con 'roberta-base'
100% precisión en 'fake-and-real-news-dataset'
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia

Casos de uso

Detección de noticias falsas
Verificación de la veracidad de artículos de noticias
Monitoreo de la integridad de la información en medios de comunicación