avishkaarak-ekta-hindi

AVISHKAARAM
Pregunta y respuesta

Este es el modelo avishkaarak-ekta-hindi, ajustado utilizando el conjunto de datos SQuAD2.0. Ha sido entrenado en pares de preguntas y respuestas, incluidas preguntas no respondibles, para la tarea de responder preguntas.

Como usar

En Haystack

Haystack es un marco de trabajo NLP de deepset. Puedes usar este modelo en un pipeline de Haystack para hacer preguntas y respuestas a escala (sobre muchos documentos). Para cargar el modelo en Haystack:

reader = FARMReader(model_name_or_path="AVISHKAARAM/avishkaarak-ekta-hindi")
# o
reader = TransformersReader(model_name_or_path="AVISHKAARAM/avishkaarak-ekta-hindi", tokenizer="deepset/roberta-base-squad2")

Para un ejemplo completo de AVISHKAARAM/avishkaarak-ekta-hindi siendo utilizado para responder preguntas, consulta los Tutoriales en la Documentación de Haystack.

En Transformers

from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline

model_name = "AVISHKAARAM/avishkaarak-ekta-hindi"

# a) Obtener predicciones
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
  'question': '¿Por qué es importante la conversión de modelos?',
  'context': 'La opción de convertir modelos entre FARM y transformers da libertad al usuario y permite a las personas cambiar fácilmente entre marcos de trabajo.'
}
res = nlp(QA_input)

# b) Cargar modelo y tokenizador
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

Hiperparámetros

batch_size = 4
n_epochs = 50
base_LM_model = "roberta-base"
max_seq_len = 512
learning_rate = 9e-5
lr_schedule = LinearWarmup
warmup_proportion = 0.2
doc_stride=128
max_query_length=64

Funcionalidades

Modelo de lenguaje: avishkaarak-ekta-hindi
Idioma: Inglés, Hindi (próximamente)
Tarea descendente: QA Extractivo
Datos de entrenamiento: SQuAD 2.0
Datos de evaluación: SQuAD 2.0
Código: Ver un ejemplo de pipeline QA en Haystack
Infraestructura: 4x Tesla v100

Casos de uso

Responder preguntas extraídas de documentos a gran escala
Responder preguntas que pueden no tener una respuesta disponible en el contexto
Uso en pipelines de QA en aplicaciones de NLP

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.