Entropie: Versionsgeschichte

Auswahl des Versionsunterschieds: Markiere die Radiobuttons der zu vergleichenden Versionen und drücke die Eingabetaste oder die Schaltfläche am unteren Rand.
Legende: (Aktuell) = Unterschied zur aktuellen Version, (Vorherige) = Unterschied zur vorherigen Version, K = Kleine Änderung

30. April 2025

29. April 2025

  • AktuellVorherige 11:2411:24, 29. Apr. 2025 Thomas Diskussion Beiträge 4.213 Bytes +3.665 Keine Bearbeitungszusammenfassung Markierung: Visuelle Bearbeitung
  • AktuellVorherige 11:1711:17, 29. Apr. 2025 Thomas Diskussion Beiträge 548 Bytes +548 Die Seite wurde neu angelegt: „Die Entropie einer Datenmenge ist ein Maß dafür, wie viel “Unordnung” oder “Unsicherheit” in den Daten vorhanden ist. Eine höhere Entropie bedeutet, dass die Daten weniger geordnet und daher schwieriger vorherzusagen sind. Eine Entropie von 0 tritt nur auf, wenn alle Elemente in der Datenmenge identisch sind. In diesem Fall gibt es keine Unsicherheit, da das Auftreten jedes Elements vorhersehbar ist. Ein Beispiel wäre eine Liste von Einsen: J…“