gemma-2b-it-fr
1rsh
Pregunta y respuesta
Este modelo es una versión ajustada de google/gemma-2b-it en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K.
Como usar
El modelo se puede usar en varias tareas de respuesta a preguntas. Aquí tienes un ejemplo de cómo puedes implementarlo en código:
import torch
from transformers import pipeline
model = '1rsh/gemma-2b-it-fr'
qa_pipeline = pipeline('question-answering', model=model)
contexto = 'Mon nom est Wolfgang et je vis à Berlin'
def pregunta_respuesta(pregunta, contexto):
    result = qa_pipeline({'question': pregunta, 'context': contexto})
    return result['answer']
pregunta = 'Où est-ce que je vis?'
respuesta = pregunta_respuesta(pregunta, contexto)
print(respuesta)
Funcionalidades
- Sintonizado en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K
 - Optimizado con PEFT, TensorBoard y Safetensors
 - Soporta respuesta a preguntas
 - Basado en el modelo google/gemma-2b-it
 - Adaptador del modelo google/gemma-2b-it
 
Casos de uso
- Generación de respuestas a preguntas en francés.
 - Asistencia en tareas de servicio al cliente.
 - Mejora en herramientas de búsqueda basadas en IA.