BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli

lighteternal
Clasificación de texto

El modelo BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext ha sido afinado en el conjunto de datos MNLI. Debe ser útil para tareas de implicación textual que involucren corpus biomédicos.

Como usar

Para usar el modelo localmente en tu máquina:

# import torch
# device = torch.device("cuda" si torch.cuda.is_available() sino "cpu")

from transformers import AutoTokenizer, AutoModelForSequenceClassification
  
tokenizer = AutoTokenizer.from_pretrained("lighteternal/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli")
model = AutoModelForSequenceClassification.from_pretrained("lighteternal/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli")

premise = 'EpCAM is overexpressed in breast cancer'
hypothesis = 'EpCAM is downregulated in breast cancer.'

# ejecutar a través del modelo pre-entrenado en MNLI
x = tokenizer.encode(premise, hypothesis, return_tensors='pt',
truncation_strategy='only_first')
logits = model(x)[0]

probs = logits.softmax(dim=1)
print('Probabilidades de implicación, neutral, contradicción \n', np.around(probs.cpu().
detach().numpy(),3))
# Probabilidades de implicación, neutral, contradicción
# 0.001 0.001 0.998

La evaluación en la precisión de clasificación (implicación, contradicción, neutral) en el conjunto de pruebas MNLI:

Métrica Valor

Precisión 0.8338

Revisar la pestaña de Métricas de Entrenamiento para información detallada.

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia

Casos de uso

Tareas de implicación textual en corpus biomédicos