T5_flanbase_phase_1
HafijulHoquenabid2
Pregunta y respuesta
Este modelo es una versión ajustada de google/flan-t5-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6995.
Como usar
El siguiente código muestra cómo usar el modelo para responder preguntas basadas en el texto proporcionado como contexto:
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model_name = 'HafijulHoquenabid2/T5_flanbase_phase_1'
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Ejemplo de uso
text = '¿Cuál es mi nombre?'
context = 'Mi nombre es Clara y vivo en Berkeley.'
inputs = tokenizer.encode(text, return_tensors='pt', max_length=512, truncation=True)
decoded_outputs = model.generate(inputs, max_length=30, num_beams=5, early_stopping=True)
respuesta = tokenizer.decode(decoded_outputs[0], skip_special_tokens=True)
print(respuesta)
Funcionalidades
- Transformers
- Safetensors
- t5
- Generación de texto a texto
- Generado desde el Entrenador
- Inferencia de generación de texto
- Compatible con Endpoints de Inferencia
- Compatible con AutoTrain
- Licencia: apache-2.0
- Región: US
Casos de uso
- Responder preguntas basadas en el contexto dado.
- Generación de texto a texto.
- Inferencia de respuesta automática en aplicaciones interactivas.