roberta-base-squad2-train-data-unmodified
mdzrg
Pregunta y respuesta
Este modelo es una versión afinada de deepset/roberta-base-squad2 en el conjunto de datos Ninguno.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 2
Versión de Frameworks
- Transformers 4.42.4
- Pytorch 2.3.1+cu121
- Datasets 2.20.0
- Tokenizers 0.19.1
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained("mdzrg/roberta-base-squad2-train-data-unmodified")
model = AutoModelForQuestionAnswering.from_pretrained("mdzrg/roberta-base-squad2-train-data-unmodified")
questrion, context = "Donde vivo?", "Mi nombre es Wolfgang y vivo en Berlín"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Fine-tuned de roberta-base-squad2
- Pipeline: question-answering
- Compatibilidad con Transformers
- Compatibilidad con TensorBoard
- Compatibilidad con Safetensors
- Generado de Trainer
- Endpoint de Inferencia Compatibles
- Licencia: cc-by-4.0
Casos de uso
- Respuestas a preguntas
- Implementación en endpoints de inferencia dedicados
- Investigación y experimentación en procesamiento de lenguaje natural