In den letzten Jahren hat vor allem ein Algorithmus für viel Aufsehen gesorgt, XG Boost. Er stammt aus der Familie der Grading-Algorithmen, daher auch sein Name, Extreme Grading. Er stammt vom Entscheidungsbaum ab, einem seit Jahrzehnten aufgrund seiner Nachvollziehbarkeit beliebten Machine-Learning-Algorithmus. Hier trennt man Datenpunkte zunächst nach dem Kriterium, in dem sie sich am stärksten unterscheiden. Durch Kombination mehrerer Bäume (eines Ensembles) und starker und schwacher Modelle (das Boosting) lernt jeder Baum aus den Fehlern des vorherigen Baums (das Grading).