bert-base-swedish-squad2
susumu2357
Pregunta y respuesta
BERT sueco afinado en SQuAD v2. Este modelo es un punto de control de afinación de BERT sueco en SQuAD v2. La afinación se hizo basándose en el modelo pre-entrenado KB/bert-base-swedish-cased. Los conjuntos de datos de entrenamiento y desarrollo son nuestra traducción al sueco de SQuAD v2. Aquí están los conjuntos de datos de HuggingFace.
Como usar
Para utilizar este modelo: ```python
from transformers import BertForQuestionAnswering, BertTokenizer
model_name = 'susumu2357/bert-base-swedish-squad2'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForQuestionAnswering.from_pretrained(model_name)
Ejemplo de uso
text = 'Aquí va el texto.'
question = 'Aquí va la pregunta.'
inputs = tokenizer(question, text, return_tensors='pt')
outputs = model(**inputs)
Parámetros de hiperentrenamiento:
- batch_size = 16
- n_epochs = 2
- max_seq_len = 386
- learning_rate = 3e-5
- warmup_steps = 2900
- doc_stride=128
- max_query_length=64
Funcionalidades
- Transformers
- PyTorch
- TensorFlow
- JAX
- Finura de SQuAD v2 en sueco
Casos de uso
- Respuestas a preguntas
- Análisis de texto
- Búsqueda de información