roberta-base-finetuned-squad

f-arnold
Pregunta y respuesta

Este modelo es una versión afinada de FacebookAI/roberta-base en el conjunto de datos None. Este modelo está diseñado para el procesamiento de lenguaje natural, específicamente para tareas de respuesta a preguntas.

Como usar

Para usar este modelo, puede emplear los siguientes hiperparámetros usados durante su entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1

Además, puede utilizar este modelo en los siguientes entornos:

Transformers 4.41.2
Pytorch 2.3.0+cu121
Datasets 2.20.0
Tokenizers 0.19.1

Funcionalidades

Tokens especiales: cls_token, eos_token, mask_token, pad_token, sep_token, unk_token
Compatibilidad con Transformers, TensorBoard y Safetensors
Modelo base: FacebookAI/roberta-base
Modelo afinado: FacebookAI/roberta-base
Licencia: mit
Compatibilidad con Endpoints de inferencia
Región: EE.UU.

Casos de uso

Responder preguntas basadas en textos proporcionados.
Extraer información relevante de grandes corpus de texto.