roberta-base-squad2-train-data-unmodified

mdzrg
Pregunta y respuesta

Este modelo es una versión afinada de deepset/roberta-base-squad2 en el conjunto de datos Ninguno.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

  • learning_rate: 3e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 2

Versión de Frameworks

  • Transformers 4.42.4
  • Pytorch 2.3.1+cu121
  • Datasets 2.20.0
  • Tokenizers 0.19.1
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained("mdzrg/roberta-base-squad2-train-data-unmodified")
model = AutoModelForQuestionAnswering.from_pretrained("mdzrg/roberta-base-squad2-train-data-unmodified")

questrion, context = "Donde vivo?", "Mi nombre es Wolfgang y vivo en Berlín"
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Fine-tuned de roberta-base-squad2
Pipeline: question-answering
Compatibilidad con Transformers
Compatibilidad con TensorBoard
Compatibilidad con Safetensors
Generado de Trainer
Endpoint de Inferencia Compatibles
Licencia: cc-by-4.0

Casos de uso

Respuestas a preguntas
Implementación en endpoints de inferencia dedicados
Investigación y experimentación en procesamiento de lenguaje natural