cuad_roberta_base
kallam
Pregunta y respuesta
Un modelo de preguntas y respuestas basado en transformers, entrenado con PyTorch y utilizando la arquitectura RoBERTa. El modelo no cuenta con suficiente actividad para ser desplegado en la API de Inferencia aún, sin embargo, está disponible para su uso en Endpoints de Inferencia.
Como usar
Este modelo puede ser utilizado para responder preguntas dentro de un contexto determinado. Ejemplos de uso incluyen:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('kallam/cuad_roberta_base')
model = AutoModelForQuestionAnswering.from_pretrained('kallam/cuad_roberta_base')
context = 'My name is Wolfgang and I live in Berlin'
question = 'Where do I live?'
inputs = tokenizer.encode_plus(question, context, return_tensors='pt')
outputs = model(**inputs)
start_scores, end_scores = outputs['start_logits'], outputs['end_logits']
Uso de widgets de ejemplo:
- Pregunta: 'Where do I live?', Contexto: 'My name is Wolfgang and I live in Berlin'
- Pregunta: 'Where do I live?', Contexto: 'My name is Sarah and I live in London'
- Pregunta: 'What's my name?', Contexto: 'My name is Clara and I live in Berkeley.'
- Pregunta: 'Which name is also used to describe the Amazon rainforest in English?', Contexto: 'The Amazon rainforest (Portuguese: Floresta Amazônica or Amazônia; Spanish: Selva Amazónica, Amazonía or usually Amazonia; French: Forêt amazonienne; Dutch: Amazoneregenwoud), también conocido en inglés como Amazonia o la Amazon Jungle...'
Funcionalidades
- Modelo de preguntas y respuestas
- Basado en la arquitectura RoBERTa
- Compatible con PyTorch
- Utiliza transformers
- Disponible para Endpoints de Inferencia
Casos de uso
- Responder preguntas específicas dentro de un contexto dado.
- Uso en aplicaciones de asistencia virtual para responder preguntas de los usuarios.
- Integración en sistemas educativos para responder a consultas de los estudiantes.
- Aplicación en análisis de textos y extracción de información relevante.