bert-base-swedish-squad2

susumu2357
Pregunta y respuesta

BERT sueco afinado en SQuAD v2. Este modelo es un punto de control de afinación de BERT sueco en SQuAD v2. La afinación se hizo basándose en el modelo pre-entrenado KB/bert-base-swedish-cased. Los conjuntos de datos de entrenamiento y desarrollo son nuestra traducción al sueco de SQuAD v2. Aquí están los conjuntos de datos de HuggingFace.

Como usar

Para utilizar este modelo: ```python from transformers import BertForQuestionAnswering, BertTokenizer

model_name = 'susumu2357/bert-base-swedish-squad2' tokenizer = BertTokenizer.from_pretrained(model_name) model = BertForQuestionAnswering.from_pretrained(model_name)

Ejemplo de uso

text = 'Aquí va el texto.' question = 'Aquí va la pregunta.' inputs = tokenizer(question, text, return_tensors='pt') outputs = model(**inputs)


 Parámetros de hiperentrenamiento: 
 - batch_size = 16
 - n_epochs = 2
 - max_seq_len = 386
 - learning_rate = 3e-5
 - warmup_steps = 2900
 - doc_stride=128
 - max_query_length=64

Funcionalidades

Transformers
PyTorch
TensorFlow
JAX
Finura de SQuAD v2 en sueco

Casos de uso

Respuestas a preguntas
Análisis de texto
Búsqueda de información