MOKSLINIŲ TYRIMŲ AR SKLAIDOS PROJEKTAI

Lietuvos mokslo tarybos gautų paraiškų, vykdytų ir vykdomų projektų sąvadas

 

Projekto anotacija
Inovatyvūs stochastinės globalios optimizacijos metodai

Projekto tikslas sukurti unifikuotą stochastinės globaliosios optimizacijos (GO) teoriją. Siekiama proveržio kuriant GO algoritmus pagrįstus fundamentaliais racionalių sprendimų teorijos postulatais ir statistiniais modeliais, kurie reprezentuoja nagrinėjamų uždavinių klasę.  Tyrimai orientuoti sumažinti pagalbinių skaičiavimų sudėtingumą bei padidinti praktiškai spęstinų uždavinių dydį (kintamųjų skaičių). Pagrindinis dėmesys skiriamas vieno kriterijaus optimizavimo algoritmams, bet kai kurie teoriniai rezultatai apibendrinti daugelio kriterijų optimizacijos atvejui. Atsitiktinės paieškos srities pagrindiniai rezultatai yra konvergavimo greičio įverčiai esant didelei sprendžiamo uždavinio dimensijai. Specialiai nagrinėjami statistiniai minimumo įverčiai ir jų degradacija dėl „dimensionalumo prakeiksmo“. Įvertinti pseudoatsitiktinės paieškos privalumai ir trūkumai deterministinių tolygių sekų atžvilgiu. Sukurtos specialios algoritmų versijos perspektyviniam „infinity computer“-iui ir ištirtas teorinis jų efektyvumas. Pateikti sukurtų algoritmų taikymo praktiniams uždaviniams rezultatai.


Advanced methods of stochastic global optimization

The of goal of the project is the creation of a unified stochastic global optimization (GO) theory. It is aimed at the breakthrough in the development of GO algorithms which will be based on fundamental postulates of the theory of rational decision making under uncertainty supplemented by the statistical models which represent considered classes of problems.  The research is aimed at the reduction of complexity of auxiliary computations, and increase of dimensionality of practically solvable problems. The research is focused on single objective algorithms but some theoretical results are also generalized   for multi objective case. In the field of random search, the rate of convergence of general algorithms in the case of large dimension is investigated. In particular, we study precision of statistical estimates of the global minimum in the case of large dimensions, and show the degree in which these estimates suffer the so-called curse of dimensionality. Additionally, we study advantages and disadvantages of the use of quasi-random points in place of the random ones in large dimensions.  Special versions of the algorithms are developed for the perspective computer patented as “the infinity computer” and their theoretical efficiency is assessed. The results of application of the developed algorithm to a real world problem are provided.