cuad_roberta_base

kallam
Pregunta y respuesta

Un modelo de preguntas y respuestas basado en transformers, entrenado con PyTorch y utilizando la arquitectura RoBERTa. El modelo no cuenta con suficiente actividad para ser desplegado en la API de Inferencia aún, sin embargo, está disponible para su uso en Endpoints de Inferencia.

Como usar

Este modelo puede ser utilizado para responder preguntas dentro de un contexto determinado. Ejemplos de uso incluyen:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained('kallam/cuad_roberta_base')
model = AutoModelForQuestionAnswering.from_pretrained('kallam/cuad_roberta_base')

context = 'My name is Wolfgang and I live in Berlin'
question = 'Where do I live?'

inputs = tokenizer.encode_plus(question, context, return_tensors='pt')
outputs = model(**inputs)

start_scores, end_scores = outputs['start_logits'], outputs['end_logits']

Uso de widgets de ejemplo:

  • Pregunta: 'Where do I live?', Contexto: 'My name is Wolfgang and I live in Berlin'
  • Pregunta: 'Where do I live?', Contexto: 'My name is Sarah and I live in London'
  • Pregunta: 'What's my name?', Contexto: 'My name is Clara and I live in Berkeley.'
  • Pregunta: 'Which name is also used to describe the Amazon rainforest in English?', Contexto: 'The Amazon rainforest (Portuguese: Floresta Amazônica or Amazônia; Spanish: Selva Amazónica, Amazonía or usually Amazonia; French: Forêt amazonienne; Dutch: Amazoneregenwoud), también conocido en inglés como Amazonia o la Amazon Jungle...'

Funcionalidades

Modelo de preguntas y respuestas
Basado en la arquitectura RoBERTa
Compatible con PyTorch
Utiliza transformers
Disponible para Endpoints de Inferencia

Casos de uso

Responder preguntas específicas dentro de un contexto dado.
Uso en aplicaciones de asistencia virtual para responder preguntas de los usuarios.
Integración en sistemas educativos para responder a consultas de los estudiantes.
Aplicación en análisis de textos y extracción de información relevante.