cnmoro/bert-tiny-question-classifier

cnmoro
Clasificación de texto

Una versión afinada de prajjwal1/bert-tiny. El objetivo es clasificar preguntas en "Dirigidas" o "Genéricas". Si una pregunta no está dirigida, cambiaríamos las acciones que realizamos en una tubería RAG (si es genérica, la búsqueda semántica no sería útil directamente; por ejemplo, pedir un resumen). La precisión en el conjunto de datos de entrenamiento es de aproximadamente 87.5%.

Como usar

from transformers import BertForSequenceClassification, BertTokenizerFast
import torch

# Cargar el modelo y el tokenizador
model = BertForSequenceClassification.from_pretrained("cnmoro/bert-tiny-question-classifier")
tokenizer = BertTokenizerFast.from_pretrained("cnmoro/bert-tiny-question-classifier")

def es_pregunta_generica(pregunta):
    # Tokenizar la frase y convertir a tensores PyTorch
    inputs = tokenizer(
        pregunta.lower(),
        truncation=True,
        padding=True,
        return_tensors="pt",
        max_length=512
    )

    # Obtener las predicciones del modelo
    with torch.no_grad():
        outputs = model(**inputs)

    # Extraer la predicción
    predictions = outputs.logits
    predicted_class = torch.argmax(predictions).item()

    return int(predicted_class) == 0

Funcionalidades

Clasificación de preguntas en Dirigidas o Genéricas
Basado en Transformers
Modelo afinado con prajjwal1/bert-tiny
Soporte para Tensor type F32

Casos de uso

Clasificación automática de preguntas para determinar si son genéricas o dirigidas
Modificación de acciones en tuberías RAG en función del tipo de pregunta
Enriquecimiento de sistemas de búsqueda semántica