BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli
lighteternal
Clasificación de texto
El modelo BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext ha sido afinado en el conjunto de datos MNLI. Debe ser útil para tareas de implicación textual que involucren corpus biomédicos.
Como usar
Para usar el modelo localmente en tu máquina:
# import torch
# device = torch.device("cuda" si torch.cuda.is_available() sino "cpu")
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("lighteternal/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli")
model = AutoModelForSequenceClassification.from_pretrained("lighteternal/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-mnli")
premise = 'EpCAM is overexpressed in breast cancer'
hypothesis = 'EpCAM is downregulated in breast cancer.'
# ejecutar a través del modelo pre-entrenado en MNLI
x = tokenizer.encode(premise, hypothesis, return_tensors='pt',
truncation_strategy='only_first')
logits = model(x)[0]
probs = logits.softmax(dim=1)
print('Probabilidades de implicación, neutral, contradicción \n', np.around(probs.cpu().
detach().numpy(),3))
# Probabilidades de implicación, neutral, contradicción
# 0.001 0.001 0.998
La evaluación en la precisión de clasificación (implicación, contradicción, neutral) en el conjunto de pruebas MNLI:
Métrica
Valor
Precisión
0.8338
Revisar la pestaña de Métricas de Entrenamiento para información detallada.
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
Casos de uso
- Tareas de implicación textual en corpus biomédicos