salti/xlm-roberta-large-arabic_qa

salti
Pregunta y respuesta

Este modelo es un modelo de pregunta-respuesta basado en xlm-roberta y optimizado para QA en árabe. Está entrenado usando transformers y PyTorch, y los parámetros del modelo se almacenan en formato Safetensors. El modelo es compatible con endpoints de inferencia y está alojado en la región de Estados Unidos. Se utiliza el AutoModelForQuestionAnswering para la función de modelo automático y AutoTokenizer como procesador.

Como usar

Para usar este modelo, puedes utilizarlo para realizar inferencias de pregunta-respuesta con el siguiente código:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

# Cargar el modelo y el tokenizador
model = AutoModelForQuestionAnswering.from_pretrained('salti/xlm-roberta-large-arabic_qa')
tokenizer = AutoTokenizer.from_pretrained('salti/xlm-roberta-large-arabic_qa')

# Texto de entrada
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'

# Tokenización
inputs = tokenizer(question, context, return_tensors='pt')

# Realizar predicción
outputs = model(**inputs)

# Obtener respuesta
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits

# Seleccionar la puntuación más alta
answer_start = torch.argmax(answer_start_scores)
answer_end = torch.argmax(answer_end_scores) + 1

# Obtener texto de la respuesta
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
print(f'La respuesta es: {answer}')

Funcionalidades

Modelo de pregunta-respuesta
Basado en xlm-roberta
Compatible con transformers
Utiliza PyTorch
Formato de parámetros en Safetensors
Compatible con endpoints de inferencia
Alojamiento en región: Estados Unidos

Casos de uso

Responder preguntas basadas en un contexto dado
Aplicaciones de chatbots en árabe
Sistemas de atención al cliente automatizados en árabe
Búsqueda de información en grandes volúmenes de datos textuales