roberta-base-finetuned-squad
f-arnold
Pregunta y respuesta
Este modelo es una versión afinada de FacebookAI/roberta-base en el conjunto de datos None. Este modelo está diseñado para el procesamiento de lenguaje natural, específicamente para tareas de respuesta a preguntas.
Como usar
Para usar este modelo, puede emplear los siguientes hiperparámetros usados durante su entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1
Además, puede utilizar este modelo en los siguientes entornos:
Transformers 4.41.2
Pytorch 2.3.0+cu121
Datasets 2.20.0
Tokenizers 0.19.1
Funcionalidades
- Tokens especiales: cls_token, eos_token, mask_token, pad_token, sep_token, unk_token
- Compatibilidad con Transformers, TensorBoard y Safetensors
- Modelo base: FacebookAI/roberta-base
- Modelo afinado: FacebookAI/roberta-base
- Licencia: mit
- Compatibilidad con Endpoints de inferencia
- Región: EE.UU.
Casos de uso
- Responder preguntas basadas en textos proporcionados.
- Extraer información relevante de grandes corpus de texto.