Post

thibault
thibault@ThibaultHoudon·
Est-ce qu'il y en a parmi vous qui ont réussi à obtenir un LLM local suffisamment performant pour vous assister dans le code ? J'ai testé de nombreux outils (Cline, Continue, Aider, des scripts obscurs reliés par ngrok, etc.) et modèles (Llama, Qwen, Mistral, etc.). Au mieux, j'arrive à obtenir un autocomplétion passable, mais on est très loin de ce que proposent Cursor avec Claude/GPT et toutes les fonctionnalités du Composer.
Français
12
2
13
3.4K
Thierry | Python à votre service
@ThibaultHoudon L'objectif est-il de coder sans connexion ou d'économiser des abonnements ? Ou d'éviter que le code ne fuite sur un serveur externe, ce qui est le principal frein à l'usage d'LLM à mon boulot, par exemple.
Français
1
0
1
180
thibault
thibault@ThibaultHoudon·
Les 3 jusqu'à un certain point. L'économie n'est pas le moteur principal, vu les gains que ça apporte et les coûts que ça nécessite en essayant de tout faire toi-même sur un VPS, je pense que tu perds de l'argent en n'utilisant pas les abonnements disponibles. Après c'est plus de la curiosité en effet parce que le sujet de l'open source et des données m'intéresse donc c'est plus pour voir jusqu'où on peut aller sans être trop dépendant de grosses boîtes noires américaines ou chinoises. Et une réflexion plus globale sur l'utilisation qu'on en fait. J'utilise beaucoup ChatGPT pour des questions très simples sur lesquelles llama est aussi bon. Donc je me dis qu'il est quand même préférable pour 90% de mon usage de l'IA (hors code) de pouvoir faire ça avec peu de ressources en local plutôt que d'aller faire des requêtes avec un modèle qui consomme 10x plus aux US pour le même résultat.
Français
0
0
0
82
Paylaş