méthode des k plus proches voisins avec validation croisée
model = knnda(x,y_class,split,knn,(scale))
une matrice (n x q) ou une structure Div
un vecteur conjonctif (n x 1) ou une matrice disjonctive (n x nclass) ou une structure Div
pour la validation croisée; le nombre de blocs, ou un vecteur de dimensions (n x 1) identifant par un numéro le groupe de validation croisée de chaque observation
le nombre de plus proches voisins
scale définit la standardisation
scale=[]: aucune standardisation
scale='s': standardisation: division des colonnes de x par leur écart-type (par défaut)
la matrice de confusion du modèle d'étalonnage, exprimée en nombre d'observations
model.conf_cal_nobs.d est une hyper-matrice de dimensions (nclass x nclass x lv)
la matrice de confusion du modèle d'étalonnage, exprimée en pourcentage par classe
model.conf_cal.d est une hyper-matrice de dimensions (nclass x nclass x lv)
la matrice de confusion de la validation croisée, exprimée en pourcentage par classe
model.conf_cv.d est une hyper-matrice de dimensions (nclass x nclass x lv)
les pourcentages d'erreur de classification des étalonnages (1° colonne) et de la validation croisée (2° colonne)
model.err.d est une matrice (lv x 2)
le pourcentage d'erreur de l'étalonnage, pour chaque classe
model.errbycl_cal.d est une matrice (lv x nclass)
le pourcentage d'erreur de la validation croisée, pour chaque classe
model.errbycl_cv.d est une matrice (lv x nclass)
le pourcentages d'échantillons non classés (prédictions inférieures au seuil)
model.notclassed.d est un scalaire
le pourcentages d'échantillons non classés (prédictions inférieures au seuil), pour chaque classe
model.notclassed_bycl.d est un vecteur (nclass x 1)
la méthode utilisée pour l'analyse discriminante; ici: 'knnda'
les données d'étalonnage
la standardisation appliquée