Q&R — Posez vos questions sur mon profil
Posez toute question sur les compétences, expériences ou disponibilités de 2Z1T Conseil.
🔧 Sous le capot
La réponse n'est pas générée à partir de rien. Chaque question déclenche une recherche dans mon profil (BM25 + similarité vectorielle) pour extraire les passages pertinents avant de les soumettre au modèle.
Le LLM utilisé est Qwen2.5 1.5B (~1 GB). Il a été sélectionné parmi plusieurs candidats sur la base d'un score de pertinence mesuré.
La sélection du modèle repose sur un framework d'évaluation automatisée développé spécifiquement pour ce cas d'usage : corpus de questions de référence, exécution des modèles candidats, scoring de pertinence. Tester, mesurer, décider — c'est précisément mon domaine.
Plutôt qu'une API cloud, j'ai choisi un modèle local sur CPU. La latence est plus élevée — c'est le prix d'une solution économiquement cohérente avec un usage faible et maîtrisée de bout en bout.