phramusca

This is my homepage.

View on GitHub

TabbyML

TabbyML offre une expérience de codage AI enrichissante et personnalisable.

C’est “le concurrent open source du CoPilot de GitHub”. Et ça tourne en local !

La suite détaille l’installation avec Docker (Compose) mais TabbyML peut aussi etre installé sur Apple, Linux ou Windows.

Installation

La doc, pour référence: Installation avec Docker Compose

Prérequis: NVIDIA Container Toolkit

Pour profiter du GPU (fortement recommandé), il faut d’abord installer NVIDIA Container Toolkit.

  1. Désinstallation de Docker Desktop

    Il vaut mieux utiliser docker sans passer par Docker Desktop.

    Donc, commencer par supprimer Docker Desktop. Ne pas oublier de sauvegarder les données.

     sudo apt-get remove docker-desktop
     sudo rm -rf ~/.docker /var/lib/docker
     sudo apt-get purge docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
     sudo apt-get autoremove
    
  2. Installation de NVIDIA Container Toolkit

    • Installez les outils nécessaires :
     sudo apt-get update
     sudo apt-get install -y software-properties-common
    
    • Ajoutez le dépôt NVIDIA :
     distribution=$(
     . /etc/os-release
     echo $ID$VERSION_ID
     )
     sudo curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
     curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list |
     sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' |
     sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
     sudo apt-get update
    
    • Installez NVIDIA Container Toolkit :
     sudo apt-get install -y nvidia-container-toolkit
    
    • Configurez le runtime Docker :
     sudo nvidia-ctk runtime configure --runtime=docker
     sudo systemctl restart docker
    
  3. Test avec NVIDIA SMI

     sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi
    

Docker Compose

Configuration

Mise à jour

docker compose pull
docker compose up -d --force-recreate

La doc, pour référence: Upgrade

Aller plus loin

Configurations

Je n’ai pas une carte graphique surpuissante et surtout elle n’a que 8Go de RAM.

Donc, je ne peux utiliser les versions 7 ni 13, à moins de faire des réglages, comme suggéré par ChatGPT mais non testé:

Voici ma configuration et les modèles testés:

type B Model ID License Type Licence Pays Propriétaire status
chat-model 5 Qwen2-1.5B-Instruct Apache 2.0 Open source Chine Alibaba Cloud ok
chat-model 5 Qwen2.5-Coder-0.5B-Instruct Apache 2.0 Open source Chine Alibaba Cloud ok
chat-model 5 Qwen2.5-Coder-1.5B-Instruct Apache 2.0 Open source Chine Alibaba Cloud ok
chat-model 7 CodeGemma-7B-Instruct Gemma License Propriétaire États-Unis Google DeepMind “bug” *
chat-model 7 CodeQwen-7B-Chat Tongyi Qianwen License Propriétaire Chine Alibaba Cloud “bug” *
chat-model 7 Mistral-7B Apache 2.0 Open source France Mistral AI “bug” *
chat-model 7 Qwen2.5-Coder-7B-Instruct Apache 2.0 Open source Chine Alibaba Cloud “bug” *
chat-model 9 Yi-Coder-9B-Chat Apache 2.0 Open source Chine 01.AI “bug” *
chat-model 14 Qwen2.5-Coder-14B-Instruct Apache 2.0 Open source Chine Alibaba Cloud “bug” *
chat-model 22 Codestral-22B Mistral AI Non-Production License Propriétaire France Mistral AI “bug” *
chat-model 32 Qwen2.5-Coder-32B-Instruct Apache 2.0 Open source Chine Alibaba Cloud “bug” *
model 1 StarCoder-1B BigCode-OpenRAIL-M Open source éthique International BigCode (Hugging Face) ok
model 2 CodeGemma-2B Gemma License Propriétaire États-Unis Google DeepMind ok
model 3 DeepseekCoder-1.3B Deepseek License Propriétaire Chine DeepSeek ok
model 3 Qwen2.5-Coder-3B Apache 2.0 Open source Chine Alibaba Cloud ok
model 3 StarCoder-3B BigCode-OpenRAIL-M Open source éthique International BigCode (Hugging Face) ok
model 3 StarCoder2-3B BigCode-OpenRAIL-M Open source éthique International BigCode (Hugging Face) ok
model 5 Qwen2.5-Coder-0.5B Apache 2.0 Open source Chine Alibaba Cloud ok
model 5 Qwen2.5-Coder-1.5B Apache 2.0 Open source Chine Alibaba Cloud ok
model 7 CodeGemma-7B Gemma License Propriétaire États-Unis Google DeepMind “bug” *
model 7 CodeLlama-7B Llama 2 Propriétaire États-Unis Meta “bug” *
model 7 CodeQwen-7B Tongyi Qianwen License Propriétaire Chine Alibaba Cloud “bug” * & ok
model 7 DeepseekCoder-6.7B Deepseek License Propriétaire Chine DeepSeek “bug” *
model 7 Qwen2.5-Coder-7B Apache 2.0 Open source Chine Alibaba Cloud “bug” *
model 7 StarCoder-7B BigCode-OpenRAIL-M Open source éthique International BigCode (Hugging Face) “bug” *
model 7 StarCoder2-7B BigCode-OpenRAIL-M Open source éthique International BigCode (Hugging Face) “bug” *
model 13 CodeLlama-13B Llama 2 Propriétaire États-Unis Meta “bug” *
model 14 Qwen2.5-Coder-14B Apache 2.0 Open source Chine Alibaba Cloud “bug” *
model 22 Codestral-22B Mistral AI Non-Production License Propriétaire France Mistral AI “bug” *
model ? DeepSeek-Coder-V2-Lite Deepseek License Propriétaire Chine DeepSeek “bug” *

* “bug” réfère à ce bug, ce bug ou ce bug. Mais c’est surtout que ma machine n’est pas assez puissante.

Autres méthodes d’installation

Voir la doc: Installation avec Docker