BAAI/bge-reranker-v2.5-gemma2-lightweight
BAAI
Clasificación de texto
El modelo bge-reranker-v2.5-gemma2-lightweight es un modelo multinacional, entrenado basado en gemma2-9b. Al integrar capacidades de compresión de tokens y reducción en capa, el modelo puede mantener un rendimiento sobresaliente mientras ahorra recursos significativos.
Como usar
# Uso normal del reranker (bge-reranker-base / bge-reranker-large / bge-reranker-v2-m3)
from FlagEmbedding import FlagReranker
reranker = FlagReranker('BAAI/bge-reranker-v2-m3', use_fp16=True)
score = reranker.compute_score(['query', 'passage'])
print(score) # -5.65234375
# Puedes mapear las puntuaciones a 0-1 configurando 'normalize=True', lo que aplicará la función sigmoide.
score = reranker.compute_score(['query', 'passage'], normalize=True)
print(score) # 0.003497010252573502
scores = reranker.compute_score([['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']])
print(scores) # [-8.1875, 5.26171875]
# Puedes mapear las puntuaciones a 0-1 configurando 'normalize=True', lo que aplicará la función sigmoide.
scores = reranker.compute_score([['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']], normalize=True)
print(scores) # [0.00027803096387751553, 0.9948403768236574]
# Uso de reranker basado en LLM
from FlagEmbedding import FlagLLMReranker
reranker = FlagLLMReranker('BAAI/bge-reranker-v2-gemma', use_fp16=True)
score = reranker.compute_score(['query', 'passage'])
print(score)
scores = reranker.compute_score([['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']])
print(scores)
# Uso de reranker basado en capas múltiples de LLM
from FlagEmbedding import LayerWiseFlagLLMReranker
reranker = LayerWiseFlagLLMReranker('BAAI/bge-reranker-v2-minicpm-layerwise', use_fp16=True)
score = reranker.compute_score(['query', 'passage'], cutoff_layers=[28])
print(score)
scores = reranker.compute_score([['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']], cutoff_layers=[28])
print(scores)
# Uso de reranker ligero basado en LLM
from FlagEmbedding import LightWeightFlagLLMReranker
reranker = LightWeightFlagLLMReranker('BAAI/bge-reranker-v2.5-gemma2-lightweight', use_fp16=True)
score = reranker.compute_score(['query', 'passage'], cutoff_layers=[28], compress_ratio=2, compress_layer=[24, 40])
print(score)
scores = reranker.compute_score([['what is panda?', 'hi'], ['what is panda?', 'The giant panda (Ailuropoda melanoleuca), sometimes called a panda bear or simply panda, is a bear species endemic to China.']], cutoff_layers=[28], compress_ratio=2, compress_layer=[24, 40])
print(scores)
Funcionalidades
- Ligero: El modelo puede volverse ligero a través de la compresión de tokens y la reducción en capas, o una combinación de ambos.
- Rendimiento sobresaliente: El modelo ha logrado nuevo rendimiento de vanguardia (SOTA) en BEIR y MIRACL.
Casos de uso
- Predecir si el pasaje B contiene una respuesta a la consulta A.
- Predecir si los pasajes A y B tienen el mismo significado.
- Predecir si las consultas A y B están haciendo la misma pregunta.
- Predecir si el argumento A y el contraargumento B expresan opiniones contradictorias.