jeew/xlm-roberta-ckpt-95000

jeew
Pregunta y respuesta

Este modelo es un modelo de cuestionario basado en xlm-RoBERTa que utiliza Transformers y PyTorch. Está diseñado para responder preguntas en varios contextos. Aunque no hay una tarjeta de modelo oficial, el modelo está disponible para usar en Inference Endpoints. Actualmente, no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor).

Como usar

Para usar este modelo, se puede integrar utilizando las siguientes etiquetas:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model = AutoModelForQuestionAnswering.from_pretrained('jeew/xlm-roberta-ckpt-95000')
tokenizer = AutoTokenizer.from_pretrained('jeew/xlm-roberta-ckpt-95000')

Funcionalidades

Modelos de transformadores
Compatibilidad con PyTorch
Capacidades de respuesta a preguntas
Compatibilidad con Inference Endpoints
Región: EE.UU.

Casos de uso

Respuesta a preguntas
Aplicaciones de procesamiento de lenguaje natural (PNL)