Verwendung von adaboost mit Rs Caret-Paket

8

Ich habe das ada R-Paket seit einiger Zeit und in letzter Zeit caret verwendet. Gemäß der Dokumentation sollte caret s train() function eine Option haben, die ada verwendet. Aber Caret kotzt mich an, wenn ich dieselbe Syntax verwende, die in meinem ada() -Aufruf liegt.

Hier ist eine Demonstration mit dem wine Beispieldatensatz.

%Vor%

Ich vermute, dass train () zusätzliche Eingaben benötigt, aber die Warnung gibt mir keine Hinweise darauf, was fehlt. Außerdem könnte ich eine Abhängigkeit vermissen, aber es gibt keinen Hinweis darauf, was da sein sollte ....

    
Bryan 11.10.2013, 17:04
quelle

4 Antworten

2

Das scheint also zu funktionieren:

%Vor%

Und der Grund ist in einer anderen Frage gefunden:

caret :: train: Spezifizieren Sie die Model-Generation-Parameter

Ich denke, Sie haben Optimierungsparameter als Argumente übergeben, wenn train selbst versucht, optimale Optimierungsparameter zu finden. Sie könnten ein Raster mit Parametern für eine Rastersuche definieren, wenn Sie Ihre eigenen definieren möchten.

    
TomR 24.03.2014 19:34
quelle
1

Schlagen Sie ?train nach und suchen Sie nach ada . Sie werden folgendes sehen:

Method Value: ada from package ada with tuning parameters: iter, maxdepth, nu (classification only)

Sie müssen also den Parameter nu und den Parameter maxdepth nicht finden.

    
nograpes 11.10.2013 19:07
quelle
1

Was ist der Datentyp in wine$good ? Wenn es ein factor ist, versuchen Sie explizit zu erwähnen, dass es so ist:

%Vor%

Begründung: Häufig benötigen R-Pakete Hilfe bei der Unterscheidung von Klassifikations- und Regressionsszenarien, und es kann auch einen generischen Code innerhalb des Caret geben, der fälschlicherweise die Übung als Regressionsproblem identifiziert (ohne die Tatsache zu berücksichtigen, dass Ada nur eine Klassifikation durchführt) ).

    
vijucat 21.10.2013 11:32
quelle
0

Bitte fügen Sie die Parameter in tuneGrid

ein %Vor%

Das wird funktionieren.

    
prabhanjan reddy 09.09.2015 05:44
quelle