Laufzeitanalyse: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
|||
| (5 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 29: | Zeile 29: | ||
Man berechnet ihn, indem man alle möglichen Eingaben durchspielt und gewichtet. Die Formel für den Erwartungswert <math>E(T)</math> lautet: | Man berechnet ihn, indem man alle möglichen Eingaben durchspielt und gewichtet. Die Formel für den Erwartungswert <math>E(T)</math> lautet: | ||
<math>E(T) = \sum_{i=1}^{| | <math>E(T) = \sum_{i=1}^{|F|} p_i \cdot t_i</math> | ||
* <math>p_i</math> ist die Wahrscheinlichkeit | Hierbei bedeuten die Variablen: | ||
* <math>t_i</math> ist die Anzahl der Rechenschritte, die der Algorithmus | * <math>F</math> ist die Menge aller theoretisch möglichen Eingaben der Größe <math>n</math> (z. B. alle möglichen Anordnungen einer Zahlenliste). | ||
* <math>|F|</math> (Betragsstriche) steht in der Mathematik für die Mächtigkeit einer Menge. Es ist also die '''exakte Anzahl''' aller dieser möglichen Eingaben. | |||
* <math>p_i</math> ist die Wahrscheinlichkeit, dass genau die spezifische Eingabe <math>i</math> auftritt. | |||
* <math>t_i</math> ist die Anzahl der Rechenschritte, die der Algorithmus für exakt diese Eingabe <math>i</math> braucht. | |||
Für die Schule gehen wir meistens von einer '''Gleichverteilung''' aus: Jeder | Für die Schule gehen wir meistens von einer '''Gleichverteilung''' aus: Jeder Eingabefall tritt mit exakt derselben Wahrscheinlichkeit auf. | ||
=== Average-Case der Linearen Suche === | === Average-Case der Linearen Suche === | ||
| Zeile 54: | Zeile 57: | ||
'''Fazit:''' Im Durchschnitt braucht die lineare Suche <math>\frac{n+1}{2}</math> Vergleiche. Da in der <math>\mathcal{O}</math>-Notation Konstanten wie <math>\frac{1}{2}</math> wegfallen, gehört die lineare Suche im Durchschnitt zur Klasse <math>\mathcal{O}(n)</math>. | '''Fazit:''' Im Durchschnitt braucht die lineare Suche <math>\frac{n+1}{2}</math> Vergleiche. Da in der <math>\mathcal{O}</math>-Notation Konstanten wie <math>\frac{1}{2}</math> wegfallen, gehört die lineare Suche im Durchschnitt zur Klasse <math>\mathcal{O}(n)</math>. | ||
== Laufzeitanalyse von Insertion Sort == | == Laufzeitanalyse von Insertion Sort == | ||
| Zeile 95: | Zeile 65: | ||
int v, i, j; | int v, i, j; | ||
for (i = 1; i < zSortfeld.length; i++) { | for (i = 1; i < zSortfeld.length; i++) { | ||
if (zSortfeld[i] < zSortfeld[i - 1]) { | if (zSortfeld[i] < zSortfeld[i - 1]) { | ||
v = zSortfeld[i]; | v = zSortfeld[i]; | ||
| Zeile 130: | Zeile 99: | ||
=== 3. Average-Case-Szenario (Durchschnittlicher Fall) === | === 3. Average-Case-Szenario (Durchschnittlicher Fall) === | ||
Wir sortieren ein Array der Länge <math>n</math>. Wir nehmen an, alle Permutationen (Anordnungen) der Zahlen sind gleich wahrscheinlich. Der Algorithmus fügt nacheinander jedes Element an Index <math>i</math> (von Position 2 bis <math>n</math>) in den bereits sortierten vorderen Teil der Länge <math>i-1</math> ein. | |||
* ''' | |||
* ''' | * '''Schritt 1: Wahrscheinlichkeit bestimmen.''' Beim Einfügen des <math>i</math>-ten Elements gibt es genau <math>i</math> mögliche Zielpositionen (von ganz vorne bis zu seinem aktuellen Platz ganz hinten). Da die ursprüngliche Reihenfolge zufällig ist, ist jede dieser Positionen gleich wahrscheinlich. Die Wahrscheinlichkeit für jede Position ist also <math>p = \frac{1}{i}</math>. | ||
* '''Schritt 2: Schritte zählen.''' Das Finden der richtigen Position ist wie eine rückwärtsgerichtete lineare Suche. Im besten Fall (das Element ist bereits größer als alle vorherigen und bleibt am Ende) brauchen wir 1 Vergleich. Im Durchschnitt muss das Element mit der Hälfte der bereits sortierten Elemente verglichen werden, um seinen Platz zu finden. Der durchschnittliche Aufwand (Vergleiche) für das Einfügen des <math>i</math>-ten Elements liegt daher bei etwa <math>\frac{i}{2}</math>. | |||
* '''Schritt 3: Erwartungswert berechnen.''' Um die Gesamtlaufzeit zu erhalten, summieren wir den durchschnittlichen Aufwand für alle Elemente, die eingefügt werden müssen (von <math>i=2</math> bis <math>n</math>): | |||
<math>E(T) \approx \sum_{i=2}^{n} \frac{i}{2}</math> | |||
Wir klammern <math>\frac{1}{2}</math> aus: | |||
<math>E(T) \approx \frac{1}{2} \cdot \sum_{i=2}^{n} i</math> | |||
Die Summe der Zahlen von 1 bis <math>n</math> lässt sich wieder mit der '''Gaußschen Summenformel''' (kleiner Gauß) vereinfachen zu <math>\frac{n(n+1)}{2}</math>. Da unsere Summe aber erst bei <math>i=2</math> startet, ziehen wir die 1 (für den fehlenden Schritt <math>i=1</math>) ab: | |||
<math>E(T) \approx \frac{1}{2} \cdot \left( \frac{n(n+1)}{2} - 1 \right) = \frac{n^2 + n - 2}{4} = \frac{1}{4}n^2 + \frac{1}{4}n - \frac{1}{2}</math> | |||
'''Fazit:''' Im Durchschnitt braucht der Insertion Sort etwa <math>\frac{1}{4}n^2</math> Vergleiche. Da in der <math>\mathcal{O}</math>-Notation Konstanten wie <math>\frac{1}{4}</math> und Terme niedrigerer Ordnung (wie <math>\frac{1}{4}n - \frac{1}{2}</math>) wegfallen, gehört der Insertion Sort im Durchschnitt zur Klasse <math>\mathcal{O}(n^2)</math>. | |||
[[Kategorie:Programmierung]] | [[Kategorie:Programmierung]] | ||
[[Kategorie:AHR_I_Informatik_LK]] | [[Kategorie:AHR_I_Informatik_LK]] | ||
Aktuelle Version vom 21. April 2026, 08:38 Uhr
Einführung

Die Laufzeitanalyse untersucht die sogenannte Zeitkomplexität eines Algorithmus. Man stellt sich dabei im Kern die Frage: „Wie verhält sich die Rechenzeit, wenn die Menge der zu verarbeitenden Daten extrem groß wird?“
Da die echte Ausführungszeit (in Sekunden) stark vom jeweiligen Computer abhängt, misst man stattdessen die Anzahl der elementaren Befehle (z. B. Vergleiche oder Tauschoperationen). Diese Anzahl hängt von der Größe der Eingabemenge ab, die in der Informatik meist als Problemgröße [math]\displaystyle{ n }[/math] bezeichnet wird.
Für kleine Datenmengen (z. B. eine Liste mit 10 Elementen sortieren) ist fast jeder Algorithmus schnell genug. Spannend wird es erst bei sehr großen Datenmengen (z. B. Millionen von Kundendatensätzen). Hier betrachtet man die sogenannte asymptotische Laufzeit. Sie beschreibt das Verhalten des Algorithmus, wenn die Datenmenge [math]\displaystyle{ n }[/math] theoretisch ins Unendliche wächst.
Lässt sich die Laufzeit eines Algorithmus mathematisch durch eine Funktion beschreiben, wie beispielsweise: [math]\displaystyle{ f(x) = \frac{1}{x} + x }[/math]
So nähert sich die rot dargestellte Funktion [math]\displaystyle{ \color{red}{f(x)} }[/math] für große [math]\displaystyle{ x }[/math] der grün dargestellten Asymptote [math]\displaystyle{ \color{green}{g(x) = x} }[/math] an.
Die Laufzeit wird mit der sogenannten Landau-Notation (Groß-O-Notation, z. B. [math]\displaystyle{ \mathcal{O}(n^2) }[/math]) abgeschätzt. Dabei werden konstante Vorfaktoren (wie [math]\displaystyle{ \frac{1}{2} }[/math]) oder kleinere Summanden ignoriert, da bei riesigen Datenmengen nur noch der dominierende Teil der Funktion das Wachstum bestimmt.
Was die Laufzeitanalyse NICHT ist
Sie misst nicht den tatsächlichen Zeitaufwand in Millisekunden auf einem echten Computer. Sie ist ein theoretisches Modell, um Algorithmen hardwareunabhängig miteinander vergleichen zu können.
Szenarien der Laufzeitabschätzung
Da Algorithmen je nach Vorsortierung der Daten unterschiedlich schnell arbeiten, unterscheidet man drei klassische Fälle:
- Das Worst-Case-Szenario (Schlechtester Fall): Die Daten liegen so ungünstig vor, dass der Algorithmus maximal lange braucht. Dies liefert eine absolute Sicherheitsgarantie (obere Schranke).
- Das Best-Case-Szenario (Bester Fall): Die Daten liegen optimal vor (z. B. bereits sortiert). Der Algorithmus ist minimal schnell fertig.
- Das Average-Case-Szenario (Durchschnittlicher Fall): Beschreibt die zu erwartende Laufzeit bei völlig zufällig gemischten Daten. Dies ist oft das realistischste Szenario in der Praxis.
Mathematische Berechnung des Average-Case
Oft wird fälschlicherweise angenommen, der Average-Case sei einfach „die Hälfte des Worst-Case“. Das ist mathematisch ungenau. Tatsächlich berechnet man den Average-Case mit Hilfe der Stochastik: Er entspricht dem Erwartungswert der Laufzeit.
Man berechnet ihn, indem man alle möglichen Eingaben durchspielt und gewichtet. Die Formel für den Erwartungswert [math]\displaystyle{ E(T) }[/math] lautet:
[math]\displaystyle{ E(T) = \sum_{i=1}^{|F|} p_i \cdot t_i }[/math]
Hierbei bedeuten die Variablen:
- [math]\displaystyle{ F }[/math] ist die Menge aller theoretisch möglichen Eingaben der Größe [math]\displaystyle{ n }[/math] (z. B. alle möglichen Anordnungen einer Zahlenliste).
- [math]\displaystyle{ |F| }[/math] (Betragsstriche) steht in der Mathematik für die Mächtigkeit einer Menge. Es ist also die exakte Anzahl aller dieser möglichen Eingaben.
- [math]\displaystyle{ p_i }[/math] ist die Wahrscheinlichkeit, dass genau die spezifische Eingabe [math]\displaystyle{ i }[/math] auftritt.
- [math]\displaystyle{ t_i }[/math] ist die Anzahl der Rechenschritte, die der Algorithmus für exakt diese Eingabe [math]\displaystyle{ i }[/math] braucht.
Für die Schule gehen wir meistens von einer Gleichverteilung aus: Jeder Eingabefall tritt mit exakt derselben Wahrscheinlichkeit auf.
Average-Case der Linearen Suche
Wir suchen eine bestimmte Zahl in einem Array der Länge [math]\displaystyle{ n }[/math]. Wir nehmen an, die Zahl ist im Array und jede Position ist gleich wahrscheinlich.
- Schritt 1: Wahrscheinlichkeit bestimmen. Die Wahrscheinlichkeit, dass unsere Zahl an Position 1, 2 oder [math]\displaystyle{ n }[/math] steht, ist jeweils [math]\displaystyle{ p = \frac{1}{n} }[/math].
- Schritt 2: Schritte zählen. Steht die Zahl an Position 1, brauchen wir 1 Vergleich. An Position 2 brauchen wir 2 Vergleiche. An Position [math]\displaystyle{ n }[/math] brauchen wir [math]\displaystyle{ n }[/math] Vergleiche.
- Schritt 3: Erwartungswert berechnen. Wir setzen dies in die Formel ein:
[math]\displaystyle{ E(T) = \frac{1}{n}\cdot 1 + \frac{1}{n}\cdot 2 + \dots + \frac{1}{n}\cdot n = \sum_{i=1}^{n} \left( \frac{1}{n} \cdot i \right) }[/math]
Wir klammern [math]\displaystyle{ \frac{1}{n} }[/math] aus:
[math]\displaystyle{ E(T) = \frac{1}{n} \cdot \sum_{i=1}^{n} i }[/math]
Die Summe der Zahlen von 1 bis [math]\displaystyle{ n }[/math] lässt sich mit der Gaußschen Summenformel (kleiner Gauß) vereinfachen zu [math]\displaystyle{ \frac{n(n+1)}{2} }[/math]:
[math]\displaystyle{ E(T) = \frac{1}{n} \cdot \frac{n(n+1)}{2} = \frac{n+1}{2} = \frac{1}{2}n + \frac{1}{2} }[/math]
Fazit: Im Durchschnitt braucht die lineare Suche [math]\displaystyle{ \frac{n+1}{2} }[/math] Vergleiche. Da in der [math]\displaystyle{ \mathcal{O} }[/math]-Notation Konstanten wie [math]\displaystyle{ \frac{1}{2} }[/math] wegfallen, gehört die lineare Suche im Durchschnitt zur Klasse [math]\displaystyle{ \mathcal{O}(n) }[/math].
Laufzeitanalyse von Insertion Sort
Nun wenden wir unser Wissen auf das Sortierverfahren Insertion Sort (Sortieren durch Einfügen) an.
public void sortierenEinfuegen_MC() {
int v, i, j;
for (i = 1; i < zSortfeld.length; i++) {
if (zSortfeld[i] < zSortfeld[i - 1]) {
v = zSortfeld[i];
j = i;
do {
zSortfeld[j] = zSortfeld[j - 1];
j--;
} while ((j > 0) && (zSortfeld[j - 1] > v));
zSortfeld[j] = v;
}
printAnalyse(i);
}
}
Wir analysieren eine Liste mit [math]\displaystyle{ n }[/math] Elementen. Den Zeitverbrauch für einen einzelnen Vergleich nennen wir [math]\displaystyle{ c }[/math].
1. Best-Case-Szenario (Bester Fall)
Die Liste ist bereits perfekt aufsteigend sortiert (z. B. [0, 2, 3, 5, 7]).
- Verhalten: Da jedes Element schon größer als sein Vorgänger ist, ist die
if-Bedingung immer falsch. Die inneredo-while-Schleife wird ignoriert. - Aufwand: Wir machen exakt einen Vergleich pro Element in der äußeren Schleife. Das ergibt [math]\displaystyle{ c \cdot (n - 1) }[/math] Vergleiche.
- Komplexität: Der Aufwand wächst wie eine Gerade (linear). Die Komplexität ist [math]\displaystyle{ \mathcal{O}(n) }[/math].
2. Worst-Case-Szenario (Schlechtester Fall)
Die Liste ist exakt falsch herum sortiert (z. B. [7, 5, 3, 2, 0]).
- Verhalten: Die
if-Bedingung ist immer wahr. Jedes Element muss durch die innere Schleife komplett bis an den Anfang der Liste getauscht werden. - Aufwand: Beim 1. Durchlauf machen wir 1 Vergleich. Beim 2. Durchlauf 2 Vergleiche. Beim letzten Durchlauf [math]\displaystyle{ n-1 }[/math] Vergleiche. Wir müssen also wieder addieren: [math]\displaystyle{ 1 + 2 + 3 + \dots + (n-1) }[/math].
Wie bei der linearen Suche hilft uns hier die Gaußsche Summenformel: [math]\displaystyle{ c \cdot \frac{(n - 1) \cdot n}{2} = \frac{c}{2}n^2 - \frac{c}{2}n }[/math]

- Komplexität: Für extrem große [math]\displaystyle{ n }[/math] dominiert das [math]\displaystyle{ n^2 }[/math] alles andere. Wir ignorieren den Faktor [math]\displaystyle{ \frac{c}{2} }[/math] und den kleineren Teil [math]\displaystyle{ n }[/math]. Das Wachstum ist quadratisch, also [math]\displaystyle{ \mathcal{O}(n^2) }[/math].
3. Average-Case-Szenario (Durchschnittlicher Fall)
Wir sortieren ein Array der Länge [math]\displaystyle{ n }[/math]. Wir nehmen an, alle Permutationen (Anordnungen) der Zahlen sind gleich wahrscheinlich. Der Algorithmus fügt nacheinander jedes Element an Index [math]\displaystyle{ i }[/math] (von Position 2 bis [math]\displaystyle{ n }[/math]) in den bereits sortierten vorderen Teil der Länge [math]\displaystyle{ i-1 }[/math] ein.
- Schritt 1: Wahrscheinlichkeit bestimmen. Beim Einfügen des [math]\displaystyle{ i }[/math]-ten Elements gibt es genau [math]\displaystyle{ i }[/math] mögliche Zielpositionen (von ganz vorne bis zu seinem aktuellen Platz ganz hinten). Da die ursprüngliche Reihenfolge zufällig ist, ist jede dieser Positionen gleich wahrscheinlich. Die Wahrscheinlichkeit für jede Position ist also [math]\displaystyle{ p = \frac{1}{i} }[/math].
- Schritt 2: Schritte zählen. Das Finden der richtigen Position ist wie eine rückwärtsgerichtete lineare Suche. Im besten Fall (das Element ist bereits größer als alle vorherigen und bleibt am Ende) brauchen wir 1 Vergleich. Im Durchschnitt muss das Element mit der Hälfte der bereits sortierten Elemente verglichen werden, um seinen Platz zu finden. Der durchschnittliche Aufwand (Vergleiche) für das Einfügen des [math]\displaystyle{ i }[/math]-ten Elements liegt daher bei etwa [math]\displaystyle{ \frac{i}{2} }[/math].
- Schritt 3: Erwartungswert berechnen. Um die Gesamtlaufzeit zu erhalten, summieren wir den durchschnittlichen Aufwand für alle Elemente, die eingefügt werden müssen (von [math]\displaystyle{ i=2 }[/math] bis [math]\displaystyle{ n }[/math]):
[math]\displaystyle{ E(T) \approx \sum_{i=2}^{n} \frac{i}{2} }[/math]
Wir klammern [math]\displaystyle{ \frac{1}{2} }[/math] aus:
[math]\displaystyle{ E(T) \approx \frac{1}{2} \cdot \sum_{i=2}^{n} i }[/math]
Die Summe der Zahlen von 1 bis [math]\displaystyle{ n }[/math] lässt sich wieder mit der Gaußschen Summenformel (kleiner Gauß) vereinfachen zu [math]\displaystyle{ \frac{n(n+1)}{2} }[/math]. Da unsere Summe aber erst bei [math]\displaystyle{ i=2 }[/math] startet, ziehen wir die 1 (für den fehlenden Schritt [math]\displaystyle{ i=1 }[/math]) ab:
[math]\displaystyle{ E(T) \approx \frac{1}{2} \cdot \left( \frac{n(n+1)}{2} - 1 \right) = \frac{n^2 + n - 2}{4} = \frac{1}{4}n^2 + \frac{1}{4}n - \frac{1}{2} }[/math]
Fazit: Im Durchschnitt braucht der Insertion Sort etwa [math]\displaystyle{ \frac{1}{4}n^2 }[/math] Vergleiche. Da in der [math]\displaystyle{ \mathcal{O} }[/math]-Notation Konstanten wie [math]\displaystyle{ \frac{1}{4} }[/math] und Terme niedrigerer Ordnung (wie [math]\displaystyle{ \frac{1}{4}n - \frac{1}{2} }[/math]) wegfallen, gehört der Insertion Sort im Durchschnitt zur Klasse [math]\displaystyle{ \mathcal{O}(n^2) }[/math].