multilingual-bert-base-cased-arabic
bhavikardeshna
Pregunta y respuesta
Multilingual BERT Base Cased es un modelo de Transformers entrenado para el procesamiento del lenguaje natural. Está optimizado para la tarea de respuesta a preguntas en árabe y usa arquitectura de BERT. Ha sido desarrollado aprovechando datos en inglés para mejorar el rendimiento en idiomas con pocos recursos.
Como usar
Este modelo está diseñado para la tarea de respuesta a preguntas. A continuación se presenta un ejemplo de cómo se puede usar:
from transformers import BertTokenizer, BertForQuestionAnswering
tokenizer = BertTokenizer.from_pretrained('bhavikardeshna/multilingual-bert-base-cased-arabic')
model = BertForQuestionAnswering.from_pretrained('bhavikardeshna/multilingual-bert-base-cased-arabic')
question, text = '¿Cuál es el propósito de la vida?', 'El propósito de la vida varía para cada individuo.'
inputs = tokenizer.encode_plus(question, text, return_tensors='pt')
outputs = model(**inputs)
Este modelo todavía no tiene suficiente actividad para ser desplegado en Inference API (sin servidor). Puede aumentar su visibilidad social y volver a intentarlo más tarde, o desplegar a Inference Endpoints (dedicados).
Funcionalidades
- Transformers
- PyTorch
- Respuesta a preguntas
Casos de uso
- Respuesta a preguntas en árabe