multilingual-bert-base-cased-arabic

bhavikardeshna
Pregunta y respuesta

Multilingual BERT Base Cased es un modelo de Transformers entrenado para el procesamiento del lenguaje natural. Está optimizado para la tarea de respuesta a preguntas en árabe y usa arquitectura de BERT. Ha sido desarrollado aprovechando datos en inglés para mejorar el rendimiento en idiomas con pocos recursos.

Como usar

Este modelo está diseñado para la tarea de respuesta a preguntas. A continuación se presenta un ejemplo de cómo se puede usar:

from transformers import BertTokenizer, BertForQuestionAnswering

tokenizer = BertTokenizer.from_pretrained('bhavikardeshna/multilingual-bert-base-cased-arabic')
model = BertForQuestionAnswering.from_pretrained('bhavikardeshna/multilingual-bert-base-cased-arabic')

question, text = '¿Cuál es el propósito de la vida?', 'El propósito de la vida varía para cada individuo.'
inputs = tokenizer.encode_plus(question, text, return_tensors='pt')
outputs = model(**inputs)

Este modelo todavía no tiene suficiente actividad para ser desplegado en Inference API (sin servidor). Puede aumentar su visibilidad social y volver a intentarlo más tarde, o desplegar a Inference Endpoints (dedicados).

Funcionalidades

Transformers
PyTorch
Respuesta a preguntas

Casos de uso

Respuesta a preguntas en árabe