IndoBERT-Lite base afinado en el SQuAD traducido v2

Wikidepia
Pregunta y respuesta

IndoBERT-Lite entrenado por Indo Benchmark y afinado en el SQuAD 2.0 traducido para la tarea de preguntas y respuestas (Q&A).

Como usar

Uso rápido con pipelines:

from transformers import BertTokenizerFast, pipeline

tokenizer = BertTokenizerFast.from_pretrained('Wikidepia/indobert-lite-squad')
qa_pipeline = pipeline(
  "question-answering",
  model="Wikidepia/indobert-lite-squad",
  tokenizer=tokenizer
)

qa_pipeline({
  'context': "Setelah menghabiskan waktu satu tahun di Praha, Einstein tinggal di Swiss antara tahun 1895 dan 1914, melepas kewarganegaraan Jermannya pada tahun 1896, dan lulus sarjana dari sekolah politeknik federal Swiss (kelak Eidgenössische Technische Hochschule, ETH) di Zürich pada tahun 1900.",
  'question': "Kapan Einstein melepas kewarganegaraan Jerman?"
})

Output:
{
  "score": 0.9799205660820007,
  "start": 147,
  "end": 151,
  "answer": "1896"
}

Funcionalidades

Pregunta y respuesta
Transformers
Compatibilidad con PyTorch
Optimizado para indonesio
Basado en albert

Casos de uso

Responder a preguntas basado en texto en indonesio.
Aplicaciones de chatbots en indonesio.
Sistemas de búsqueda de información.