Décomposition biais-variance
La décomposition biais-variance est une façon d'analyser l'erreur de généralisation prévue d’un algorithme d'apprentissage par rapport à un problème particulier comme une somme de trois termes, le biais, la variance et une quantité appelée l’erreur irréductible, résultant du bruit dans le problème lui-même.
Ce compromis s’applique à toutes les formes d’apprentissage supervisé : classification, régression (ajustement de fonction), et prédiction structurée . Il a également été invoqué pour expliquer l’efficacité de l'heuristique dans l'apprentissage humain.