Optimalisatie/Optimization: verschil tussen versies
Naar navigatie springen
Naar zoeken springen
Nieuwe pagina aangemaakt met '=Samenvattingen= Klik hier om de samenvattingen te bekijken =Informatie over het examen= Deze twee vakken delen deze...' |
|||
Regel 24: | Regel 24: | ||
## Leg uit hoe bij de sequentiële aanpak afgeleiden van de kostfunctie gegenereerd kunnen worden, steundende op de principes van algorithmic differentiation (AD). Een bondig antwoord is voldoende. | ## Leg uit hoe bij de sequentiële aanpak afgeleiden van de kostfunctie gegenereerd kunnen worden, steundende op de principes van algorithmic differentiation (AD). Een bondig antwoord is voldoende. | ||
===Theoriegedeelte 'Optimization' 16/1/2017 voormiddag== | ===Theoriegedeelte 'Optimization' 16/1/2017 voormiddag=== | ||
De overgeschreven vragen waren niet altijd even leesbaar. | De overgeschreven vragen waren niet altijd even leesbaar, mijn excuses. | ||
# Minimize f(x) s.t. h(x)=0. | # Minimize f(x) s.t. h(x)=0. | ||
## KKT-condition -> How are they related to the local minimum? | ## KKT-condition -> How are they related to the local minimum? | ||
Regel 40: | Regel 40: | ||
## Canghe of varibles x = Ay, where A is square and invertible. Newtons method applied to h(y) = f(Ay) denoting its iterations by y_i. Show that if we start from y_0 such that x_0 = A y_0 that optimal x equals A times optimal y. | ## Canghe of varibles x = Ay, where A is square and invertible. Newtons method applied to h(y) = f(Ay) denoting its iterations by y_i. Show that if we start from y_0 such that x_0 = A y_0 that optimal x equals A times optimal y. | ||
===Oefeningengedeelte 16/1/2017 voormiddag=== | |||
Voor de oefeningen was naar mijn aanvoelen te weinig tijd voorzien. | |||
# Fitting voor een parabool (oefenzitting 1). | |||
# Langrange-Newton (oefenzitting 4). | |||
[[Categorie: mw]] | [[Categorie: mw]] |
Versie van 16 jan 2017 16:20
Samenvattingen
Klik hier om de samenvattingen te bekijken
Informatie over het examen
Deze twee vakken delen dezelfde cursus en oefenzittingen. De lessen en het theoriegedeelte van het examen zijn verschillend. Het oefeningengedeelte van het examen is gelijk. Het oefeningenexamen is gebaseerd op de oefenzittingen in Matlab en wordt met behulp van de computer gemaakt, maar enkel geschreven antwoorden worden verbeterd, de computerbestanden worden na het examen gewist.
Examenvragen
2016-2017
Theoriegedeelte 'Optimalisatie' 16/1/2017 voormiddag
- Beschouw de KKT voorwaarden.
- Geef een interpretatie van de Langrange multipliers (duale variabelen) n termen van gevoeligheid (sensitivity) van het probleem.
- Leg uit waarom (1.1.) in overeenstemming is met de eigenschap dat multipliers horende bij ongelijkheidsbeperkingen steeds groter dan of gelijk aan nul zijn.
- Beschouw het optimalisatieprobleem "min {||F(x)||_2}^2" waarbij F een functie is van R^n naar R^m met m groter dan of gelijk aan n.
- Leg uit hoe de Gauss-Newton methode werkt en leid de basisiteratie af.
- Bespreek de convergentie van de Gauss-Newton methode.
- Stel dat de vergelijkingen F(x) = 0 een (exacte) oplossing hebben. Hoe beïnvloedt dat de convergentiesnelheid. Waarom?
- Beschouw de BFGS methode voor het oplossen van optimalisatie problemen zonder beperkingen.
- Leg een verband met de secant methode voor het oplossen van niet lineaire vergelijkingen.
- Bespreek het (lokale) convergentiegedrag.
- Vergelijk de (exacte) methode van Newton met BFGS.
- Bespreek optimale controleproblemen.
- Hoe wordt zo'n probleem gedefinieerd?
- Leg in detail het verschil uit tussen de sequentiële aanpak en de simultane aanpak (sequential vs simultaneous approach).
- Leg uit hoe bij de sequentiële aanpak afgeleiden van de kostfunctie gegenereerd kunnen worden, steundende op de principes van algorithmic differentiation (AD). Een bondig antwoord is voldoende.
Theoriegedeelte 'Optimization' 16/1/2017 voormiddag
De overgeschreven vragen waren niet altijd even leesbaar, mijn excuses.
- Minimize f(x) s.t. h(x)=0.
- KKT-condition -> How are they related to the local minimum?
- SOSC -> How are they related to the local minimum?
- Derive N-L method for solving this problem. Give an interpretation of the its(??) in terms of a quadratic mode(??).
- Minimize x_1 s.t. x_1^2 + x_2^2 < 1.
- Dual variable mu -> L(x,mu)
- Dual function q. Verify dual problem is maxium (-1)/(4\mu) - mu s.t. mu(??) > 0.
- Solve the dual en recover the primal optimal.
- Verify that the primal solution is equal to (-1,0). Show that this satisfies FONC.
- Minimize 1/2 x^R Q X s.t. x \leq c, where c in R^n, Q in R^{nxn} is symmetric and positive semi-definite. Introduce y = ?? and show that the dual problem is the same as the original.
- Uncontrained: minimize f(x), where f is twice continuously differentiable.
- Write down the ?? corresponding to Newton's method.
- Canghe of varibles x = Ay, where A is square and invertible. Newtons method applied to h(y) = f(Ay) denoting its iterations by y_i. Show that if we start from y_0 such that x_0 = A y_0 that optimal x equals A times optimal y.
Oefeningengedeelte 16/1/2017 voormiddag
Voor de oefeningen was naar mijn aanvoelen te weinig tijd voorzien.
- Fitting voor een parabool (oefenzitting 1).
- Langrange-Newton (oefenzitting 4).