gemma-2b-it-fr

1rsh
Pregunta y respuesta

Este modelo es una versión ajustada de google/gemma-2b-it en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K.

Como usar

El modelo se puede usar en varias tareas de respuesta a preguntas. Aquí tienes un ejemplo de cómo puedes implementarlo en código:

import torch
from transformers import pipeline

model = '1rsh/gemma-2b-it-fr'
qa_pipeline = pipeline('question-answering', model=model)

contexto = 'Mon nom est Wolfgang et je vis à Berlin'

def pregunta_respuesta(pregunta, contexto):
    result = qa_pipeline({'question': pregunta, 'context': contexto})
    return result['answer']

pregunta = 'Où est-ce que je vis?'
respuesta = pregunta_respuesta(pregunta, contexto)
print(respuesta)

Funcionalidades

Sintonizado en el conjunto de datos jpacifico/French-Alpaca-dataset-Instruct-110K
Optimizado con PEFT, TensorBoard y Safetensors
Soporta respuesta a preguntas
Basado en el modelo google/gemma-2b-it
Adaptador del modelo google/gemma-2b-it

Casos de uso

Generación de respuestas a preguntas en francés.
Asistencia en tareas de servicio al cliente.
Mejora en herramientas de búsqueda basadas en IA.

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.