all-MiniLM-L12-v2-qa-en

LLukas22
Pregunta y respuesta

Este modelo es un modelo extractivo de preguntas y respuestas. Es una versión ajustada de all-MiniLM-L12-v2 en los siguientes conjuntos de datos: squad_v2, LLukas22/nq-simplified.

Como usar

Puedes usar el modelo así:

from transformers import pipeline

# Hacer predicciones
model_name = "LLukas22/all-MiniLM-L12-v2-qa-en"
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)

QA_input = {
"question": "What's my name?",
"context": "My name is Clara and I live in Berkeley."
}

result = nlp(QA_input)
print(result)

Alternativamente, puedes cargar el modelo y el tokenizer por separado:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

# Hacer predicciones
model_name = "LLukas22/all-MiniLM-L12-v2-qa-en"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Funcionalidades

Transformers
PyTorch
TensorBoard
safetensors
bert

Casos de uso

Responder preguntas extrayendo información relevante de un contexto dado.