Stratégies pour optimiser l’entraînement d’un modèle

Jusqu’à présent, nous avons abordé les concepts essentiels de l’apprentissage supervisé très simplement, en les répartissant dans des étapes incontournables de tout projet de machine learning. De la constitution du jeu de données à l’entraînement du modèle en passant par la visualisation des interactions entre les variables explicatives et leur pré-traitement (recodage, mise à l’échelle, gestion des données manquantes…), il est en quelques manipulations possible d’obtenir des résultats satisfaisants avec les outils de Scikit-Learn dans la mesure où l’on est certain·es de disposer de données fiables et d’avoir fixé un objectif compréhensible.

La réalité est plus nuancée. Si notre volonté n’est pas de dresser un panorama exhaustif des techniques de paramétrage d’un modèle d’apprentissage et de leurs subtilités, pour cela nous renvoyons à des ouvrages plus complets comme celui de Aurélien Géron, <a href=‘https://www.oreilly.com/library/view/hands-on-machine-learning/9781098125967/’ target=‘_blank’>Hands-on Machine Learning with Scikit-Learn, Keras and TensorFlow</a>, notre intention est d’infuser un certain nombre de réflexes propres à éviter les principaux écueils inhérents aux méthodes statistiques.

Intervenant·e : Alexandre Roulois (LLF)
Date : 17 avril 2023, 08:30
Salle : ODG 531
Domaine : Apprentissage automatique