tcr-bert

wukevin
Clasificación de texto

Modelo TCR transformador basado en la tecnología BERT. Este modelo está diseñado para el modelado de lenguaje enmascarado, específicamente el modelado de aminoácidos enmascarados (MAA), y para la clasificación de etiquetas de antígenos a partir de PIRD.

Como usar

Ejemplos de entradas:

C A S S P V T G G I Y G Y T F (se une al antígeno NLVPMVATV CMV)
C A T S G R A G V E Q F F (se une al antígeno de la gripe GILGFVFTL)

Funcionalidades

Modelado de lenguaje enmascarado (modelado de aminoácidos enmascarados o MAA)
Clasificación de etiquetas de antígenos desde PIRD

Casos de uso

Clasificación de secuencias de aminoácidos para identificar etiquetas de antígenos
Modelado de lenguaje enmascarado para secuencias de proteínas