L’attribution d’un poids de 80 % à la formation et de 20 % à l’évaluation dans le contexte du machine learning est une décision stratégique basée sur plusieurs facteurs. Cette répartition vise à trouver un équilibre entre l'optimisation du processus d'apprentissage et la garantie d'une évaluation précise des performances du modèle. Dans cette réponse, nous approfondirons les raisons de ce choix et explorerons la valeur didactique qu’il offre.
Pour comprendre la justification de la répartition entre 80 % de formation et 20 % d’évaluation, il est essentiel de comprendre les sept étapes de l’apprentissage automatique. Ces étapes, qui incluent la collecte de données, la préparation des données, la formation du modèle, l'évaluation du modèle, le réglage du modèle, le déploiement et la surveillance du modèle, forment un cadre complet pour la création de modèles d'apprentissage automatique.
La première étape, la collecte de données, consiste à collecter des données pertinentes pour entraîner le modèle. Ces données sont ensuite prétraitées et préparées lors de la phase de préparation des données. Une fois les données prêtes, la phase de formation du modèle commence, au cours de laquelle le modèle est exposé à l'ensemble de données de formation pour apprendre des modèles et des relations. Les performances du modèle sont ensuite évaluées à l'aide d'un ensemble de données distinct lors de la phase d'évaluation du modèle.
La décision d'attribuer 80 % de poids à la formation et 20 % à l'évaluation vient du fait que la formation est la principale phase où le modèle apprend à partir des données. Pendant la formation, le modèle ajuste ses paramètres internes pour minimiser la différence entre ses sorties prévues et les sorties réelles dans l'ensemble de données de formation. Ce processus implique la mise à jour itérative des paramètres du modèle à l'aide d'algorithmes d'optimisation tels que la descente de gradient.
En attribuant une importance plus élevée à la formation, nous donnons la priorité à la capacité du modèle à apprendre des données et à capturer des modèles complexes. La phase de formation est celle où le modèle acquiert ses connaissances et généralise à partir de l'ensemble de données de formation pour faire des prédictions sur des données invisibles. Plus le modèle est exposé à des données de formation, mieux il peut apprendre et généraliser. Par conséquent, consacrer une partie importante du processus d’évaluation à la formation garantit que le modèle est suffisamment exposé aux données de formation pour un apprentissage efficace.
D'autre part, la phase d'évaluation joue un rôle crucial dans l'évaluation des performances du modèle sur des données invisibles. L'ensemble de données d'évaluation, qui est distinct de l'ensemble de données de formation, sert de proxy pour les scénarios du monde réel. Cela nous permet d'évaluer dans quelle mesure le modèle peut généraliser son apprentissage à des instances nouvelles et invisibles. L'évaluation des performances du modèle est essentielle pour mesurer son exactitude, sa précision, son rappel ou toute autre mesure pertinente, en fonction du domaine spécifique du problème.
La pondération de 20 % accordée à l'évaluation garantit que le modèle est rigoureusement testé sur des données inédites et fournit une évaluation réaliste de ses capacités. Cette phase d'évaluation permet de découvrir tout problème potentiel tel que le surajustement, le sous-ajustement ou le biais dans les prédictions du modèle. Il permet également d’affiner les hyperparamètres et l’architecture du modèle pour améliorer les performances.
Pour illustrer ce concept, considérons un exemple pratique. Supposons que nous formions un modèle d'apprentissage automatique pour classer les images de chats et de chiens. Pendant la phase de formation, le modèle apprend à différencier les caractéristiques des chats et des chiens en analysant un vaste ensemble de données d'images étiquetées. Plus le modèle peut s’entraîner sur d’images, plus il parvient à distinguer les deux classes.
Une fois la formation terminée, le modèle est évalué à l'aide d'un ensemble de données distinct contenant des images qu'il n'a jamais vues auparavant. Cette phase d'évaluation teste la capacité du modèle à généraliser son apprentissage et à classer avec précision de nouvelles images inédites. En attribuant 20 % de poids à l'évaluation, nous garantissons que les performances du modèle sont évaluées de manière approfondie sur des données invisibles, fournissant ainsi une mesure fiable de son efficacité.
La répartition de 80 % de poids à la formation et de 20 % de poids à l'évaluation en apprentissage automatique est un choix stratégique visant à optimiser le processus d'apprentissage tout en garantissant une évaluation précise des performances du modèle. En consacrant une partie importante du processus d'évaluation à la formation, nous accordons la priorité à la capacité du modèle à apprendre des données et à capturer des modèles complexes. Simultanément, la phase d'évaluation teste rigoureusement le modèle sur des données invisibles, fournissant une évaluation réaliste de ses capacités.
D'autres questions et réponses récentes concernant EITC/AI/GCML Google Cloud Machine Learning:
- Qu'est-ce que la synthèse vocale (TTS) et comment fonctionne-t-elle avec l'IA ?
- Quelles sont les limites du travail avec de grands ensembles de données en apprentissage automatique ?
- L’apprentissage automatique peut-il apporter une assistance dialogique ?
- Qu'est-ce que le terrain de jeu TensorFlow ?
- Que signifie réellement un ensemble de données plus volumineux ?
- Quels sont quelques exemples d’hyperparamètres d’algorithme ?
- Qu’est-ce que l’apprentissage ensamble ?
- Que se passe-t-il si l’algorithme d’apprentissage automatique choisi ne convient pas et comment peut-on être sûr de sélectionner le bon ?
- Un modèle de machine learning a-t-il besoin d’être supervisé lors de sa formation ?
- Quels sont les paramètres clés utilisés dans les algorithmes basés sur les réseaux neuronaux ?
Afficher plus de questions et réponses dans EITC/AI/GCML Google Cloud Machine Learning