InshaM/my-mistral-seekh-qna
InshaM
Pregunta y respuesta
Modelo desarrollado para preguntas y respuestas, utilizando tecnología de Transformers. Soporta múltiples librerías, incluidas 'safetensors' y 'gguf', y está diseñado para generación de texto y modelos causales de lenguaje. Licenciado bajo Apache 2.0 y compatible con AutoTrain y finales de inferencia.
Como usar
Para comenzar con este modelo, use el siguiente código:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('InshaM/my-mistral-seekh-qna')
tokenizer = AutoTokenizer.from_pretrained('InshaM/my-mistral-seekh-qna')
inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- preguntas y respuestas
- generación de texto
- Modelos causales de lenguaje
- Compatible con AutoTrain
- Compatible con finales de inferencia
Casos de uso
- Realizar preguntas y respuestas contextualizadas
- Generación automática de texto para diversas aplicaciones
- Implementaciones en chatbots y asistentes virtuales
- Generador de contenido basado en entradas de texto