Mary8/tinyroberta-squad2

Mary8
Pregunta y respuesta

Un modelo de respuesta a preguntas basado en transformers, en particular utilizando la arquitectura de roberta. El modelo es compatible con TensorBoard, utiliza safetensors para manejar datos y está optimizado para su uso en endpoints de inferencia. Desarrollado por Mary8, este modelo permite responder preguntas contextualizando en base a textos proporcionados.

Como usar

Para usar este modelo, se puede aprovechar la API de Hugging Face para realizar inferencias sobre textos. Aquí hay un ejemplo de código para utilizar el modelo:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = 'Mary8/tinyroberta-squad2'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForQuestionAnswering.from_pretrained(model_name)

contexto = "Mi nombre es Clara y vivo en Berkeley."
pregunta = "¿Cuál es mi nombre?"
inputs = tokenizer.encode_plus(pregunta, contexto, return_tensors='pt')
outputs = model(**inputs)

# Procesar los resultados de la inferencia
start_scores = outputs.start_logits
end_scores = outputs.end_logits

El modelo puede responder preguntas específicas basadas en el contexto textual proporcionado.

Funcionalidades

Respuesta a preguntas
Basado en la arquitectura de roberta
Compatibilidad con TensorBoard
Uso de safetensors para manejo de datos
Optimización para Endpoints de Inferencia

Casos de uso

Responder preguntas basadas en textos académicos
Generar respuestas automáticas en chatbots
Extraer información clave de documentos largos
Ayudar en tareas de investigación y análisis de documentos
Mejorar interfaces de usuario con funciones de consulta inteligente