Random Forest
- Andreas Armster

- 18. Dez. 2025
- 1 Min. Lesezeit
Random Forest (RF) ist ein Ensembleverfahren, bei dem viele Entscheidungsbäume auf unterschiedlichen Stichproben und Teilmengen von Features trainiert werden. Die Vorhersagen der einzelnen Bäume werden gemittelt (bei Regression) oder per Mehrheitsentscheid kombiniert (bei Klassifikation), wodurch stabilere und genauere Ergebnisse erzielt werden und Überanpassung reduziert wird. (vgl. Andrae 2023, S. 16)
Beispiel: Vorhersage der Kreditwürdigkeit von Bankkunden: Jeder Entscheidungsbaum trifft eine eigene Vorhersage, ob ein Kunde kreditwürdig ist oder nicht, basierend auf Merkmalen wie Einkommen, Alter und bisherigem Zahlungsverhalten. Die einzelnen Vorhersagen der Bäume werden anschließend per Mehrheitsentscheidung kombiniert, sodass der Random Forest insgesamt zuverlässiger vorhersagt als ein einzelner Baum.
Andrae, S. (2023): Ökonometrie und maschinelles Lernen. Basiswissen für Ökonomen. Wiesbaden: Springer Gabler



Kommentare