Un peu de contexte, j'ai un serveur sous debian pour gérer mes courriels, une instance Nextcloud, home assistant, Mediawiki, pihole et plein d'autres trucs utile. Maintenant j'aimerai ajouter un conteneur Docker pour disposer de mon LLM en local. Les objectifs sont multiples :
- LLM pour m'aider à coder/configurer.
- Configuration d'un assistant sur Home assistant.
- tant qu'à faire avec whisper et piper (ou équivalent).
- Faire interagir le LLM avec mon calendrier et mes notes Nextcloud
- Faire interagir le LLM avec mon Wiki
- Si déjà j'investis dans un GPU, autant pouvoir lui envoyer de temps en temps des rendus Blender à faire.
Dans tous les cas, j'aimerai que ce nouveau conteneur soit disponible tout le temps et pas juste quand mon ordinateur de bureau est allumé, c'est pourquoi j'aimerai trouver un bon GPU à mettre dans mon serveur pour faire tourner tout ça. J'ai commencé par cherché en occasion mais j'ai l'impression qu'il est impossible de trouver une RTX 3090 à moins de 800-900€. Mais mon avis est que pour ce prix là autant partir sur une carte neuve car on trouve la ASRock Intel Arc Pro B60 Creator 24GB pour environ 760€
J'ai vu qu'il existe LocalAI qui dispose d'image docker aussi bien pour Nvidia que pour Intel et AMD. Je ne vais donc pas me restreindre sur la marque du GPU.
J'aimerai donc avoir votre avis à la fois sur le modèle LLM ainsi que sur le GPU le plus adapté pour ce genre d'utilisation.
Merci d'avance

