Optimisation des essaim de particules
L’optimisation des essaim de particules (PSO) est une méthode de calcul qui permet d’optimiser un problème en essayer itérativement d'améliorer une solution candidate en s’appuyant sur un système de mesure de la qualité précisé.
Cela résout un problème en disposant d'une population de solutions candidates, appelées ici particules, et en les déplaçant dans l’espace de recherche selon des formules mathématiques simples sur la position et la vitesse de la particule. Le mouvement de chaque particule est influencé par sa position locale la plus connue, mais il est également guidé vers les positions les plus connues de l'espace de recherche, qui sont utilisées lorsque de meilleures positions sont trouvées par d'autres particules. Ceci devrait amener l'essaim vers les meilleures solutions.
L’optimisation des essaim de particules est attribuée à l’origine Kennedy et Eberhart a d’abord été destiné à simuler le comportement social, comme une représentation stylisée du mouvement des organismes i n un oiseau troupeau ou école poissons. L'algorithme a été simplifié et il a été observé qu'il s'agissait d'une optimisation optimale. Le livre de Kennedy et Eberhar t décrit ma ny aspects philosophiques de l’optimisation des essaim de particules et l’intelligence en essaim. Poli effectue une étude approfondie des applications de l’optimisation des essaim de particules. Bonyadi et Michalewicz ont récemment publié une revue exhaustive des travaux théoriques et expérimentaux sur l’optimisation des essaim de particules
L’optimisation des essaim de particules est une métaheuristique car il fait peu ou pas d'hypothèses sur l'optimisation du problème et peut rechercher de très grands espaces de solutions candidates. Cependant, des métaheuristiques telles que PSO ne garantissent pas qu'une solution optimale soit trouvée. De plus, PSO n'utilise pas le gradient du problème à optimiser, ce qui signifie que PSO n'exige pas que le problème d'optimisation soit différentiable comme le requièrent les méthodes d'optimisation classiques telles que les méthodes de descente de gradient et de quasi-Newton.