InfiniteBoosting

Bagging und boosting kommen bei ganzheitlichen Verfahren häufig zum Einsatz. Die Schwächen der Methoden sind nicht ergebnisentscheidend, ihr Nutzen klar definiert: Bagging verringert den Mittelwert der Analyse, boosting konzentriert sich auf die Verzerrung und den Mittelwert, letzteres mit geringerem Erfolg als die Schwester-Methode. Was passiert, wenn man die Vorteile beider kombiniert? Alex Rogozhnikov und Tatiana Likhomanenko von der Higher School of Economics in Moskau haben unter diesem Vorsatz einen neuen Algorithmus entwickelt. InfiniteBoosting konstruiert einen beliebig großen Entscheidungsbaum und trainiert schwache Klassifikationen. Mit diesem hybriden Ansatz wird die Verzerrung in jedem Schritt verringert, gleichzeitig wird die Überanpassung – und dadurch der Mittelwert des Datensatzes kontrolliert.

Wir gratulieren Alex Rogozhnikov und Tatiana Likhomanenko von der Higher School of Economics in Moskau zu diesem Erfolg.

Lesen Sie hier den gesamten Artikel.

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer