$$ \def \N {\mathbb N} \def \R {\mathbb R} $$
$$ \left\{ \begin{array}{l} \dot f = - \alpha g f \\ \dot g = \alpha g f - \beta g \\ \dot h = \beta g \end{array}\right. $$
$$2\pi=6.28318530718\cdots$$
$$\sqrt 2=1.41421356237\cdots$$
$$\sum_{n=0}^\infty \frac 1 {n}=+\infty$$
$$1+\frac 1 2 + \frac 1 4 + \frac 1 8 + \cdots = 2$$
$$e^{i\pi}=-1$$
$$\ln(1-x)=-x-\frac{x^2} 2-\frac{x^3}3 - \cdots$$
$$\sin(x)=x-\frac{x^3} 6+\frac{x^5}{120} + \cdots$$
$$\lim_{n\rightarrow \infty}(1+x/n)^n=e^x$$
$$\frac{\pi^2} 6=\sum_n \frac 1 {n^2}$$
$$\lim_{x\rightarrow 0} \frac{f(x)}{g(x)}=\frac{f'(x)}{g'(x)}$$
$$x_{n+1}=x_n-h \nabla J(x_n)$$
$$e^{x+y}=e^xe^y$$
$$f'(x)=\lim_{h\rightarrow 0}\frac{f(x+h)-f(x)} h$$
Analyse et méthodes numériques
Propriétés des fonctions continues / dérivables
IUT Nice Sophia-Antipolis

Fonctions continues

Théorème des valeurs intermédiaires

Soit $f\in \mathcal C([a,b])$ tel que $f(a) \lt 0 \lt f(b).$

Preuve : Dichotomie

$a$
$b$

La table de bistrot

(Mathologer)

Minimum d'une fonction

Suite minimisante
$f(x_n) \rightarrow m$
$x_{\varphi(n)}\rightarrow x^*$
$f(x_{\varphi(n)})\rightarrow f(x^*)$
$$ f(x^*)=m $$
Démonstration
NON CONSTRUCTIVE

Fonctions Dérivables

Condition d'optimalité

Si $f \in \mathcal C([a,b])$ est dérivable et

Théorème de Rolle

Soit $a < b$. Si $f\in \mathcal C([a,b])$ est dérivable
3 cas possibles
$\inf f=0=\sup f$
$\inf f < 0$
$\sup f > 0$

Théorème des accroissements finis

Soit $a \lt b$. Si $f\in \mathcal C([a,b])$ est dérivable,

Corollaire

Si $f$ est une fonction dérivable,
$f$ est croissante ssi $f'\geq 0$

Théorème des accroissements finis généralisé

Soit $f$ et $g$ fonctions dérivables sur $[a,b]$,
il existe $c\in ]a,b[$ tel que $$ (f(b)-f(a))g'(c)=(g(b)-g(a))f'(c). $$

Application : Règle de l'Hôpital

Soit $f$ et $g$ fonctions dérivables sur $[a,b]$, telles que
  • $f(a)=g(a)=0$
  • $g'$ ne s'annule pas sur $]a,b[$
Alors $$ \lim_{x\rightarrow a^+} \frac{f(x)}{g(x)}=\lim_{x\rightarrow a^+} \frac{f'(x)}{g'(x)} $$

Méthode du gradient

Trouver $x^* \in \mathbb R$ tel que $$ f(x^*)=\min_{x\in \mathbb R} f(x). $$ Pour optimiser

Algorithme du gradient

1. Initialisation
$x_0 \in \mathbb R$