InshaM/my-mistral-seekh-qna

InshaM
Pregunta y respuesta

Modelo desarrollado para preguntas y respuestas, utilizando tecnología de Transformers. Soporta múltiples librerías, incluidas 'safetensors' y 'gguf', y está diseñado para generación de texto y modelos causales de lenguaje. Licenciado bajo Apache 2.0 y compatible con AutoTrain y finales de inferencia.

Como usar

Para comenzar con este modelo, use el siguiente código:

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained('InshaM/my-mistral-seekh-qna')
tokenizer = AutoTokenizer.from_pretrained('InshaM/my-mistral-seekh-qna')

inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

preguntas y respuestas
generación de texto
Modelos causales de lenguaje
Compatible con AutoTrain
Compatible con finales de inferencia

Casos de uso

Realizar preguntas y respuestas contextualizadas
Generación automática de texto para diversas aplicaciones
Implementaciones en chatbots y asistentes virtuales
Generador de contenido basado en entradas de texto