Predicción de Códigos ICD-10
AkshatSurolia
Clasificación de texto
La implementación de Clinical BERT para la predicción de códigos ICD-10. El paper 'Publicly Available Clinical BERT Embeddings' contiene cuatro modelos únicos de clinicalBERT: inicializados con BERT-Base (cased_L-12_H-768_A-12) o BioBERT (BioBERT-Base v1.0 + PubMed 200K + PMC 270K) y entrenados en todas las notas MIMIC o solo en resúmenes de alta.
Como usar
Cargar el modelo a través de la biblioteca transformers:
from transformers import AutoTokenizer, BertForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("AkshatSurolia/ICD-10-Code-Prediction")
model = BertForSequenceClassification.from_pretrained("AkshatSurolia/ICD-10-Code-Prediction")
config = model.config
Ejecutar el modelo con texto de diagnóstico clínico:
text = "subarachnoid hemorrhage scalp laceration service: surgery major surgical or invasive"
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
Devolver los 5 códigos ICD-10 más predichos:
results = output.logits.detach().cpu().numpy()[0].argsort()[::-1][:5]
return [ config.id2label[ids] for ids in results]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Endpoints de inferencia
Casos de uso
- Predicción de códigos ICD-10 a partir de texto clínico