gemma-2b-it-fr
1rsh
Pregunta y respuesta
Este modelo es una versión ajustada de google/gemma-2b-it en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K.
Como usar
El modelo se puede usar en varias tareas de respuesta a preguntas. Aquí tienes un ejemplo de cómo puedes implementarlo en código:
import torch
from transformers import pipeline
model = '1rsh/gemma-2b-it-fr'
qa_pipeline = pipeline('question-answering', model=model)
contexto = 'Mon nom est Wolfgang et je vis à Berlin'
def pregunta_respuesta(pregunta, contexto):
result = qa_pipeline({'question': pregunta, 'context': contexto})
return result['answer']
pregunta = 'Où est-ce que je vis?'
respuesta = pregunta_respuesta(pregunta, contexto)
print(respuesta)
Funcionalidades
- Sintonizado en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K
- Optimizado con PEFT, TensorBoard y Safetensors
- Soporta respuesta a preguntas
- Basado en el modelo google/gemma-2b-it
- Adaptador del modelo google/gemma-2b-it
Casos de uso
- Generación de respuestas a preguntas en francés.
- Asistencia en tareas de servicio al cliente.
- Mejora en herramientas de búsqueda basadas en IA.