Skip to content

Zenika/genai-codelab

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

30 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

CodeLab GenAI Zenika

Bienvenue dans ce CodeLab autour de la GenAI.

L'objectif

Developper une application permettant d'appeler des LLM (Large Language Model) customizer.

Les technos

Pour ce CodeLab, nous allons principalement utiliser deux librairies / programmes:

  • Ollama : Permet de faire des inférences sur un modèle en local
  • LangChain : Framework permettant de construire des applications basé sur des LLM

Côté modèle, nous allons utiliser Mistral 7B un modèle générique de génération de texte.

Le CodeLab peut être réalisé dans différents langages:

Afin de simplifier le déploiement pour les participants, il est possible de déployer Ollama et ChromaDB sur le cloud. Tout est décrit ici

Pré-requis matériel

En fonction de la taille du modèle choisit, une certaine configuration mémoire est requise:

  • Pour un modèlé à 7 milliards de paramètres (7B) : 8Go de RAM
  • Pour un modèlé à 13 milliards de paramètres (13B) : 16Go de RAM
  • Pour un modèlé à 70 milliards de paramètres (70B) : 64Go de RAM

Installation

Afin de pouvoir faire des inférences en local, il est nécéssaire :

Pour télécharger un modèle, cela peut être fait de deux façon:

  • En ligne de commande: ollama pull openhermes
  • Via l'API: curl -XPOST http://localhost:11434/api/pull -d '{"name": "openhermes"}'