l-yohai/kobigbird-base-klue-mrc

l-yohai
Pregunta y respuesta

Este modelo, basado en la arquitectura BigBird y denominado kobigbird-base-klue-mrc, está diseñado para tareas de preguntas y respuestas (question-answering). Fue creado el 15 de noviembre de 2022 y se ha descargado 168 veces hasta la fecha. Utiliza la biblioteca Transformers, PyTorch y Safetensors. El modelo no es lo suficientemente popular para ser desplegado en la API de Inferencias, pero puede ser utilizado en Puntos de Inferencia dedicados.

Como usar

El modelo se puede utilizar para tareas de preguntas y respuestas. A continuación se muestran ejemplos de uso del modelo:

# Ejemplo de uso del modelo
from transformers import AutoTokenizer, AutoModelForQuestionAnswering

# Cargar el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained('l-yohai/kobigbird-base-klue-mrc')
model = AutoModelForQuestionAnswering.from_pretrained('l-yohai/kobigbird-base-klue-mrc')

# Definir el contexto y la pregunta
context = 'My name is Wolfgang and I live in Berlin'
question = 'Where do I live?'

# Tokenizar
inputs = tokenizer(question, context, return_tensors='pt')

# Realizar la inferencia
outputs = model(**inputs)

# Procesar la salida
start_positions = outputs.start_logits.argmax()
end_positions = outputs.end_logits.argmax()
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][start_positions:end_positions+1]))
print(answer)  # Berlin

Funcionalidades

Transformers
PyTorch
Safetensors
BigBird
Endpoints de inferencia
Región: EE.UU.

Casos de uso

Responder preguntas específicas basadas en un contexto dado.
Extraer información relevante de documentos largos.
Ayudar en la búsqueda y recuperación de información en aplicaciones de servicio al cliente.