Ce cours traite de l’adaptation de modèles de langage à des besoins spécifiques, avec des approches de fine-tuning efficientes comme PEFT, LoRA ou QLoRA. Il apporte une compréhension plus concrète des compromis entre personnalisation, coût de calcul et performance.
Les notions les plus structurantes concernent les techniques de réglage paramétrique, l’optimisation des hyperparamètres, l’évaluation des modèles ajustés et les choix d’architecture d’entraînement. Le cours est utile parce qu’il clarifie ce que signifie réellement adapter un modèle au lieu de simplement l’utiliser tel quel.
Pour moi, cela renforce ma capacité à accompagner un COMEX dans ses arbitrages entre usage standard de modèles, personnalisation métier et coûts d’industrialisation. Cela m’aide à mieux poser les questions de pertinence, de soutenabilité technique et de valeur d’un modèle spécia
