Prefatã
Optimizarea,
ca disciplinã bine conturatã în cadrul ºtiinþelor
computaþionale, constã în determinarea valorilor unor
variabile care realizeazã valoarea minimã (sau maximã)
posibilã a unei funcþii în situaþia în care
acestea trebuie sã satisfacã anumite restricþii. Astfel
formulatã, problema are un caracter foarte general, fiind prezentã
ca atare în foarte multe domenii de activitate sau ca subproblemã
în cadrul unor probleme mai generale. Când numãrul de
variabile ºi de restricþii este mare (câteva zeci de mii),
atunci optimizarea devine o activitate foarte complexã.
Beneficiind
de o serie de dezvoltãri de substanþã din domeniile algebrei
liniare computaþionale, precum ºi al limbajelor de programare,
optimizarea este un domeniu matur cu realizãri ºi aplicaþii
remarcabile, dispunând de numeroase clase de metode care stau la baza
unui numãr impresionant de algoritmi de optimizare. Toþi algoritmii
de optimizare sunt iterativi. Una dintre cele mai importante caracteristici
ale acestora este convergenþa lor.
Scopul monografiei. Întregul efort în scrierea acestei lucrãri
se concentreazã asupra prezentãrii rezultatelor de convergenþã
a câtorva algoritmi fundamentali de optimizare. Se prezintã
în detaliu ºi riguros matematic convergenþa metodei Newton
pentru optimizare fãrã restricþii, convergenþa
metodelor simplex, a elipsoidului ºi a celor de punct interior pentru
programarea liniarã, precum ºi a metodelor barierã ºi
a planelor de secþiune pentru optimizarea cu restricþii.
Structura monografiei. Monografia este structuratã în opt
capitole. Primul are un caracter introductiv insistând asupra unei
formalizãri posibile a conceptului de problemã, precum ºi
a unor detalii privind problemele standard de optimizare ºi de algebrã
liniarã computaþionalã. Totodatã aici se prezintã
conceptul de ordin de mãrime ºi acela de creºtere a funcþiilor
foarte mult utilizate în analiza algoritmilor din punctul de vedere
al convergenþei ºi al complexitãþii. Urmãtoarele
trei capitole prezintã la un nivel foarte general conceptele de convergenþã
globalã ºi asimptoticã în condiþiile în
care un algoritm este privit ca o aplicaþie multivocã. Se definesc
tipurile de convergenþã liniarã ºi superliniarã
de ordin m împreunã cu o caracterizare a acestora din punctul
de vedere al numãrului de cifre semnificative câºtigate
la fiecare iteraþie ºi al numãrului de iteraþii corespunzãtor
acestor tipuri de convergenþã. Capitolele cinci, ºase ºi
ºapte constituie esenþa acestei lucrãri. În capitolul
cinci se trateazã analiza convergenþei algoritmilor de optimizare
fãrã restricþii. Dupã o prezentare foarte sumarã
a condiþiilor de optimalitate asociate acestei probleme împreunã
cu rezultatele fundamentale asupra convergenþei algoritmilor de optimizare
fãrã restricþii se prezintã în detaliu analiza
convergenþei metodei gradientului descendent ºi a metodei Newton.
Ultima secþiune a acestui capitol este dedicatã analizei convergenþei
metodei Newton pentru funcþii autoconcordante. Capitolul ºase
trateazã analiza convergenþei algoritmilor de programare liniarã.
Se prezintã câteva aspecte asupra convergenþei metodei
simplex pentru programarea liniarã, a metodei elipsoidului, precum
ºi a metodelor de punct interior. Capitolul ºapte este dedicat
analizei convergenþei algoritmilor de optimizare cu restricþii.
Pentru început se prezintã condiþiile de optimalitate
pentru cinci clase de probleme de optimizare cu restricþii împreunã
cu teoremele de alternativã care stau la baza existenþei soluþiilor
acestora. Dupã o prezentare generalã a convergenþei principalelor
metode de optimizare cu restricþii se trateazã riguros analiza
convergenþei metodei barierã ºi a metodei planelor de secþiune.
În cazul metodei barierã fundamentalã este metoda Newton.
Rezultatele de convergenþã ale acesteia se aplicã în
cadrul metodei barierã în presupunerea autoconcordanþei
funcþiei barierã.
În ipoteze destul de tari asupra funcþiilor
problemei se prezintã formule închise care exprimã numãrul
de iteraþii efectuat de algoritm în funcþie de dimensiunea
problemei, precum ºi de un numãr de parametri, care pentru majoritatea
problemelor sunt necunoscuþi. Ca atare, aceste formule nu au vre-o
valoare practicã deosebitã, ci ne furnizeazã o idee
asupra convergenþei. Ultimul capitol prezintã câteva opinii
referitoare la analiza empiricã a algoritmilor de optimizare fiind
o criticã a limitelor dezvoltãrilor teoretice.
Lucrarea este un discurs teoretic asupra algoritmilor
de optimizare, concentrându-se asupra convergenþei acestora.
Câteva dintre aceste probleme sunt, de asemenea, considerate în
[Boyd ºi Vandenberghe, 2001], unde se prezintã numeroase aspecte
ale optimizãrii convexe bazate pe metoda Newton ºi barierã.
Adresabilitate.
Monografia se adreseazã tuturor specialiºtilor interesaþi
de posibilitãþile de rezolvare a problemelor de optimizare ºi
în performanþele algoritmilor asociaþi acestor probleme
din punctul de vedere al convergenþei acestora. Parcurgerea acestui
material necesitã o serie de cunoºtinþe din domeniul algebrei
liniare, calculului diferenþial ºi integral, precum ºi analizã
convexã.
Mulþumiri.
Autorul mulþumeºte Fundaþiei Alexander von Humboldt
pentru generozitatea ºi solicitudinea cu care a ºtiut sã-l
sprijine de-a lungul timpului atât în perioada stagiului de peste
doi ani petrecuþi în câteva universitãþi din
Germania, cât ºi dupã aceea. De asemenea, autorul mulþumeºte
celor câþiva colegi ºi prieteni cu care a discutat conþinutul
acestei monografii. În acelaºi timp, autorul este recunoscãtor
soþiei sale Mihaela ºi copiilor Denisa ºi Cosmin pentru afecþiunea
ºi înþelegerea cu care l-au înconjurat ºi sprijinit
în efortul de a concretiza o muncã depusã pe parcursul
mai multor ani.
Bucuresti,
Februarie 10, 2003
Neculai Andrei