Newer
Older
Le plus souvent on considère le temps d'exécution dans le pire des cas parce que :
* L'algorithme ne prendra jamais plus de temps
* Le pire des cas arrive assez souvent
* Souvent le cas moyen est aussi mauvais que le pire des cas (temps d'exécution du même ordre)
## Ordre de grandeur
Rappelons la démarche qu'on a suivi :
1. Ignorer les temps réels d'exécution en les remplaçant par les coûts abstraites $`c_i`$
2. Ignorer les coûts abstraites $`c_i`$ :
$`T(n) = a n^2 + b n + c`$
3. Éliminer les termes d'ordre inférieur et ignorer le coefficient du terme d'ordre supérieur :
L'analyse asymptotique est un moyen de comparer les performances *relatives* des algorithmes.
---
* A1 de complexité $`\Theta(n^2)`$
* A2 de complexité $`\Theta(n^3)`$
* A3 de complexité $`\Theta(n^2)`$
On peut dire que A1 est meilleur que A2 *pour les entrés de grande taille*. Mais on ne peut pas dire qui est le meilleur parmi A1 et A3, pour cela il faut une analyse plus fine.
---
**Exemple** Les termes d'ordre inférieur sont peu importants *pour les entrées de grande taille*
Pour $`n = 10`$ le terme linéaire est 1000 fois plus grand que le terme quadratique. Mais pour $`n = 1\;000\;000`$ le terme linéaire est 100 fois *plus petit* que le terme quadratique. Plus $`n`$ est grand, plus les termes d'ordre supérieur sont importants, quels que soient les coefficients.
---
$`\Theta(g(n))`$ est *l'ensemble* des fonctions $`f(n)`$ pour lesquelles il existe des constantes positives $`c_1, c_2, n_0`$, telles que :
```math
0 \le c_1 g(n) \le f(n) \le c_2 g(n) \text{ pour tout } n \ge n_0
```
On dit aussi que $`f`$ est « prise en sandwich » entre $`c_1 g`$ et $`c_2 g`$ pour $`n`$ assez grand ou encore que $`f`$ est égale à $`g`$ à un facteur constant près.
---
$`\Theta(g(n))`$ est un ensemble de fonctions et la notation mathématiquement correcte est $`f(n) \in \Theta(g(n))`$ mais on note $`f(n) = \Theta(g(n))`$ par abus.
$`O(g(n))`$ est *l'ensemble* des fonctions $`f(n)`$ pour lesquelles il existe des constantes positives $`c, n_0`$, telles que :
```math
Il est évident que si $`f(n) = \Theta(g(n))`$ alors $`f(n) = O(g(n))`$ et donc $`\Theta(g(n)) \subseteq O(g(n))`$ mais l’inverse n'est pas vrai.
---
Souvent on parle de la complexité des algorithmes en termes de $`O`$ et pas de $`\Theta`$. On peut dire que notre algorithme de tri par insertion s'exécute *toujours* en $`O(n^2)`$ et en $`\Theta(n^2)`$ *au pire des cas*.
**Propriétés**
* Transitivité : si $`f(n) = \Theta(g(n))`$ et $`g(n) = \Theta(h(n))`$ alors $`f(n) = \Theta(h(n))`$. Idem pour $`O`$.
* Réflexivité : $`f(n) = \Theta(f(n))`$. Idem pour $`O`$.
* Symétrie : $`f(n) = \Theta(g(n)) \text{ ssi } g(n) = \Theta(f(n))`$. Pas de symétrie pour $`O`$, pourquoi ?