l-yohai/kobigbird-base-klue-mrc
l-yohai
Pregunta y respuesta
Este modelo, basado en la arquitectura BigBird y denominado kobigbird-base-klue-mrc, está diseñado para tareas de preguntas y respuestas (question-answering). Fue creado el 15 de noviembre de 2022 y se ha descargado 168 veces hasta la fecha. Utiliza la biblioteca Transformers, PyTorch y Safetensors. El modelo no es lo suficientemente popular para ser desplegado en la API de Inferencias, pero puede ser utilizado en Puntos de Inferencia dedicados.
Como usar
El modelo se puede utilizar para tareas de preguntas y respuestas. A continuación se muestran ejemplos de uso del modelo:
# Ejemplo de uso del modelo
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
# Cargar el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained('l-yohai/kobigbird-base-klue-mrc')
model = AutoModelForQuestionAnswering.from_pretrained('l-yohai/kobigbird-base-klue-mrc')
# Definir el contexto y la pregunta
context = 'My name is Wolfgang and I live in Berlin'
question = 'Where do I live?'
# Tokenizar
inputs = tokenizer(question, context, return_tensors='pt')
# Realizar la inferencia
outputs = model(**inputs)
# Procesar la salida
start_positions = outputs.start_logits.argmax()
end_positions = outputs.end_logits.argmax()
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][start_positions:end_positions+1]))
print(answer) # Berlin
Funcionalidades
- Transformers
- PyTorch
- Safetensors
- BigBird
- Endpoints de inferencia
- Región: EE.UU.
Casos de uso
- Responder preguntas específicas basadas en un contexto dado.
- Extraer información relevante de documentos largos.
- Ayudar en la búsqueda y recuperación de información en aplicaciones de servicio al cliente.