salti/xlm-roberta-large-arabic_qa
salti
Pregunta y respuesta
Este modelo es un modelo de pregunta-respuesta basado en xlm-roberta y optimizado para QA en árabe. Está entrenado usando transformers y PyTorch, y los parámetros del modelo se almacenan en formato Safetensors. El modelo es compatible con endpoints de inferencia y está alojado en la región de Estados Unidos. Se utiliza el AutoModelForQuestionAnswering para la función de modelo automático y AutoTokenizer como procesador.
Como usar
Para usar este modelo, puedes utilizarlo para realizar inferencias de pregunta-respuesta con el siguiente código:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
# Cargar el modelo y el tokenizador
model = AutoModelForQuestionAnswering.from_pretrained('salti/xlm-roberta-large-arabic_qa')
tokenizer = AutoTokenizer.from_pretrained('salti/xlm-roberta-large-arabic_qa')
# Texto de entrada
context = 'Mi nombre es Wolfgang y vivo en Berlín'
question = '¿Dónde vivo?'
# Tokenización
inputs = tokenizer(question, context, return_tensors='pt')
# Realizar predicción
outputs = model(**inputs)
# Obtener respuesta
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits
# Seleccionar la puntuación más alta
answer_start = torch.argmax(answer_start_scores)
answer_end = torch.argmax(answer_end_scores) + 1
# Obtener texto de la respuesta
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
print(f'La respuesta es: {answer}')
Funcionalidades
- Modelo de pregunta-respuesta
- Basado en xlm-roberta
- Compatible con transformers
- Utiliza PyTorch
- Formato de parámetros en Safetensors
- Compatible con endpoints de inferencia
- Alojamiento en región: Estados Unidos
Casos de uso
- Responder preguntas basadas en un contexto dado
- Aplicaciones de chatbots en árabe
- Sistemas de atención al cliente automatizados en árabe
- Búsqueda de información en grandes volúmenes de datos textuales