tcr-bert
wukevin
Clasificación de texto
Modelo TCR transformador basado en la tecnología BERT. Este modelo está diseñado para el modelado de lenguaje enmascarado, específicamente el modelado de aminoácidos enmascarados (MAA), y para la clasificación de etiquetas de antígenos a partir de PIRD.
Como usar
Ejemplos de entradas:
C A S S P V T G G I Y G Y T F (se une al antígeno NLVPMVATV CMV)
C A T S G R A G V E Q F F (se une al antígeno de la gripe GILGFVFTL)
Funcionalidades
- Modelado de lenguaje enmascarado (modelado de aminoácidos enmascarados o MAA)
- Clasificación de etiquetas de antígenos desde PIRD
Casos de uso
- Clasificación de secuencias de aminoácidos para identificar etiquetas de antígenos
- Modelado de lenguaje enmascarado para secuencias de proteínas