all-MiniLM-L12-v2-qa-all
LLukas22
Pregunta y respuesta
Este modelo es un modelo de respuesta a preguntas extractivo. Es una versión afinada de all-MiniLM-L12-v2 en los siguientes conjuntos de datos: squad_v2, LLukas22/nq-simplified, newsqa, LLukas22/NLQuAD, deepset/germanquad.
Como usar
Puedes usar el modelo de la siguiente manera:
from transformers import pipeline
# Hacer predicciones
model_name = "LLukas22/all-MiniLM-L12-v2-qa-all"
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
"question": "What’s my name?",
"context": "My name is Clara and I live in Berkeley."
}
result = nlp(QA_input)
print(result)
Alternativamente, puedes cargar el modelo y el tokenizador por separado:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
# Hacer predicciones
model_name = "LLukas22/all-MiniLM-L12-v2-qa-all"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Respuesta a preguntas
- Transformers
- PyTorch
- TensorBoard
- Safetensors
Casos de uso
- Respuesta a preguntas en sistemas de información de servicios
- Asistentes virtuales
- Aplicaciones de soporte al cliente