r1char9/ruT5_q_a

r1char9
Pregunta y respuesta

La modelo ruT5_q_a, basado en ruT5-base, ha sido afinada para la tarea de 'question answering' en textos en ruso. Utiliza la librería 'transformers' y soporta el formato 'safetensors'. Este modelo no es lo suficientemente popular para ser desplegado en la API de Inference (sin servidor) aún, pero se puede implementar en Endpoints de Inference dedicados.

Como usar

from transformers import AutoTokenizer, T5ForConditionalGeneration

qa_checkpoint = 'r1char9/ruT5_q_a'
qa_model = T5ForConditionalGeneration.from_pretrained(qa_checkpoint)
qa_tokenizer = AutoTokenizer.from_pretrained(qa_checkpoint)

prompt='Нарисуй изображение Томаса Шелби'

def question_answering(prompt):
    question = 'Что нужно нарисовать?'
    tokenized_sentence = qa_tokenizer(prompt, question, return_tensors='pt')
    res = qa_model.generate(**tokenized_sentence)
    decoded_res = qa_tokenizer.decode(res[0], skip_special_tokens=True)
    return decoded_res

respuesta = question_answering(prompt)
# 'изображение Томаса Шелби'

Funcionalidades

Transformers
Safetensors
Generación de texto de secuencia a secuencia
Generación de texto
Respuesta a preguntas
Compatible con AutoTrain
Compatible con Inference Endpoints
Basado en T5

Casos de uso

Responder preguntas basadas en un contexto dado
Generación de texto