r1char9/ruT5_q_a
r1char9
Pregunta y respuesta
La modelo ruT5_q_a, basado en ruT5-base, ha sido afinada para la tarea de 'question answering' en textos en ruso. Utiliza la librería 'transformers' y soporta el formato 'safetensors'. Este modelo no es lo suficientemente popular para ser desplegado en la API de Inference (sin servidor) aún, pero se puede implementar en Endpoints de Inference dedicados.
Como usar
from transformers import AutoTokenizer, T5ForConditionalGeneration
qa_checkpoint = 'r1char9/ruT5_q_a'
qa_model = T5ForConditionalGeneration.from_pretrained(qa_checkpoint)
qa_tokenizer = AutoTokenizer.from_pretrained(qa_checkpoint)
prompt='Нарисуй изображение Томаса Шелби'
def question_answering(prompt):
question = 'Что нужно нарисовать?'
tokenized_sentence = qa_tokenizer(prompt, question, return_tensors='pt')
res = qa_model.generate(**tokenized_sentence)
decoded_res = qa_tokenizer.decode(res[0], skip_special_tokens=True)
return decoded_res
respuesta = question_answering(prompt)
# 'изображение Томаса Шелби'
Funcionalidades
- Transformers
- Safetensors
- Generación de texto de secuencia a secuencia
- Generación de texto
- Respuesta a preguntas
- Compatible con AutoTrain
- Compatible con Inference Endpoints
- Basado en T5
Casos de uso
- Responder preguntas basadas en un contexto dado
- Generación de texto