deberta-v3-large_boolq
nfliu
Clasificación de texto
Este modelo es una versión afinada del modelo microsoft/deberta-v3-large en el conjunto de datos boolq. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4601 y Precisión: 0.8835
Como usar
import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForSequenceClassification.from_pretrained("nfliu/deberta-v3-large_boolq")
tokenizer = AutoTokenizer.from_pretrained("nfliu/deberta-v3-large_boolq")
# Cada ejemplo es un par (pregunta, contexto).
ejemplos = [
("Lake Tahoe está en California", "Lake Tahoe es un destino turístico popular en California."),
("El agua está mojada", "Contrario a la creencia popular, el agua no está mojada.")
]
entrada_codificada = tokenizer(ejemplos, padding=True, truncation=True, return_tensors="pt")
with torch.no_grad():
salida_modelo = model(**entrada_codificada)
probabilidades = torch.softmax(salida_modelo.logits, dim=-1).cpu().tolist()
probabilidad_no = [round(prob[0], 2) for prob in probabilidades]
probabilidad_si = [round(prob[1], 2) for prob in probabilidades]
for ejemplo, p_no, p_si in zip(ejemplos, probabilidad_no, probabilidad_si):
print(f"Pregunta: {ejemplo[0]}")
print(f"Contexto: {ejemplo[1]}")
print(f"p(No | pregunta, contexto): {p_no}")
print(f"p(Sí | pregunta, contexto): {p_si}")
print()
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- safetensors
Casos de uso
- Clasificación de texto para determinar respuestas a preguntas basada en contexto
- Usar en aplicaciones de preguntas y respuestas
- Integración en aplicaciones de procesamiento de lenguaje natural