mobilebert-squadv2
aware-ai
Pregunta y respuesta
Mobile-Bert afinado en el conjunto de datos Squad V2. Este modelo se basa en la arquitectura mobilebert adecuada para dispositivos portátiles o con pocos recursos.
Como usar
Usando la biblioteca de transformers primero cargue el modelo y el tokenizador:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = 'aware-ai/mobilebert-squadv2'
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Usar el pipeline de pregunta y respuesta
qa_engine = pipeline('question-answering', model=model, tokenizer=tokenizer)
QA_input = {
'question': '¿tu pregunta?',
'context': '. tu contexto ................ '
}
res = qa_engine(QA_input)
Funcionalidades
- Transformers
- PyTorch
- Safetensors
- 24.6M parámetros
- F32 tipo de tensor
- Pregunta y Respuesta
Casos de uso
- Pregunta y Respuesta
- Interacción con dispositivos de bajos recursos