deberta-v3-large_boolq

nfliu
Clasificación de texto

Este modelo es una versión afinada del modelo microsoft/deberta-v3-large en el conjunto de datos boolq. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4601 y Precisión: 0.8835

Como usar

import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizer

model = AutoModelForSequenceClassification.from_pretrained("nfliu/deberta-v3-large_boolq")
tokenizer = AutoTokenizer.from_pretrained("nfliu/deberta-v3-large_boolq")

# Cada ejemplo es un par (pregunta, contexto).
ejemplos = [
("Lake Tahoe está en California", "Lake Tahoe es un destino turístico popular en California."),
("El agua está mojada", "Contrario a la creencia popular, el agua no está mojada.")
]

entrada_codificada = tokenizer(ejemplos, padding=True, truncation=True, return_tensors="pt")

with torch.no_grad():
    salida_modelo = model(**entrada_codificada)
    probabilidades = torch.softmax(salida_modelo.logits, dim=-1).cpu().tolist()

probabilidad_no = [round(prob[0], 2) for prob in probabilidades]
probabilidad_si = [round(prob[1], 2) for prob in probabilidades]

for ejemplo, p_no, p_si in zip(ejemplos, probabilidad_no, probabilidad_si):
    print(f"Pregunta: {ejemplo[0]}")
    print(f"Contexto: {ejemplo[1]}")
    print(f"p(No | pregunta, contexto): {p_no}")
    print(f"p(Sí | pregunta, contexto): {p_si}")
    print()

Funcionalidades

Clasificación de texto
Transformers
PyTorch
safetensors

Casos de uso

Clasificación de texto para determinar respuestas a preguntas basada en contexto
Usar en aplicaciones de preguntas y respuestas
Integración en aplicaciones de procesamiento de lenguaje natural