Dans ce genre de cas (toujours notre exemple du métier de développeur), le modèle se contentera de se rapprocher au mieux de la syntaxe employée généralement, y compris si elle est fausse.. D’où, si vous l’avez déjà vécu, ces interminables discussions où vous tentez de faire comprendre à votre LLM préféré, que « non, 1+1 ne font pas 11 ». De ce côté la, vous aurez peut être constaté la myriade d’outils mis à disposition pour avoir un précieux retour de votre part : Sélection de « La meilleure réponse », pouce vers le haut/bas, signaler un problème, et même tout simplement, vos réponses pleines de joie/colère tourouj. Cela dit, il est tout à fait possible d’exécuter des modèles LLM en local sans GPU, à condition de disposer d’un processeur multicœur suffisamment puissant (idéalement avec support AVX2 ou AVX512) et d’une grande quantité de RAM — 32 Go étant un bon point de départ pour des modèles quantifiés.
Author: contact@comptoir-hardware.com
Published at: 2025-05-17 17:00:00
Still want to read the full version? Full article