T5_flanbase_phase_1

HafijulHoquenabid2
Pregunta y respuesta

Este modelo es una versión ajustada de google/flan-t5-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6995.

Como usar

El siguiente código muestra cómo usar el modelo para responder preguntas basadas en el texto proporcionado como contexto:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

model_name = 'HafijulHoquenabid2/T5_flanbase_phase_1'

model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Ejemplo de uso
text = '¿Cuál es mi nombre?'
context = 'Mi nombre es Clara y vivo en Berkeley.'

inputs = tokenizer.encode(text, return_tensors='pt', max_length=512, truncation=True)
decoded_outputs = model.generate(inputs, max_length=30, num_beams=5, early_stopping=True)
respuesta = tokenizer.decode(decoded_outputs[0], skip_special_tokens=True)
print(respuesta)

Funcionalidades

Transformers
Safetensors
t5
Generación de texto a texto
Generado desde el Entrenador
Inferencia de generación de texto
Compatible con Endpoints de Inferencia
Compatible con AutoTrain
Licencia: apache-2.0
Región: US

Casos de uso

Responder preguntas basadas en el contexto dado.
Generación de texto a texto.
Inferencia de respuesta automática en aplicaciones interactivas.