Q&R — Posez vos questions sur mon profil

Posez toute question sur les compétences, expériences ou disponibilités de 2Z1T Conseil.

🔧 Sous le capot

🔍 Recherche hybride

La réponse n'est pas générée à partir de rien. Chaque question déclenche une recherche dans mon profil (BM25 + similarité vectorielle) pour extraire les passages pertinents avant de les soumettre au modèle.

🤖 Modèle compact, choix évalué

Le LLM utilisé est Qwen2.5 1.5B (~1 GB). Il a été sélectionné parmi plusieurs candidats sur la base d'un score de pertinence mesuré.

🧪 Un outil de test conçu pour la question

La sélection du modèle repose sur un framework d'évaluation automatisée développé spécifiquement pour ce cas d'usage : corpus de questions de référence, exécution des modèles candidats, scoring de pertinence. Tester, mesurer, décider — c'est précisément mon domaine.

⚖️ Un trade-off délibéré

Plutôt qu'une API cloud, j'ai choisi un modèle local sur CPU. La latence est plus élevée — c'est le prix d'une solution économiquement cohérente avec un usage faible et maîtrisée de bout en bout.