Кластерный анализ в действии

Материал из testwiki
Перейти к навигации Перейти к поиску

Шаблон:Материалы


Здесь мы изучаем и реализуем различные алгоритмы кластерного анализа и проверяем их эффективность

Исследуемые алгоритмы

Теория

Расчеты по методу K-средних

  1. выбрать число кластеров N
  2. выбрать исходные центры кластеров
  3. Пересчитать центры кластеров
  • Для каждого кластера выполнить:
for (i=0; i< dimensions; i++)
{
    centroid[i] += point[i];	
    pointsInCluster++;
}
for (i=0; i< dimensions; i++)
{
    centroid[i] /= pointsInCluster;	
}

Обучение слоя Кохонена

Обучения нейрона Кохонена выполняется итерационно, согласно уравнению:

wnew=wold+k(xwold),

где wnew – новое значение веса, соединяющего входную компоненту х с выигравшим нейроном; wold – предыдущее значение этого веса; k – коэффициент скорости обучения, который может варьироваться в процессе обучения.

Выбор начальных значений весовых векторов

Одно из решений, известное под названием метода выпуклой комбинации, состоит в том, что все веса приравниваются одной и той же величине:

wi=1n,

где n – число входов (число компонент каждого весового вектора).

Но тогда каждая компонента входа x корректируется:

xi=kxi+1kn

В начале обучения k мало, вследствие чего все входные векторы имеют длину, близкую к 1n, и почти совпадают с векторами весов. В процессе обучения сети k постепенно возрастает, приближаясь к единице.

Метод выпуклой комбинации хорошо работает, но несколько замедляет процесс обучения, так как весовые векторы подстраиваются к изменяющейся цели. Но зато, в отличие от метода K-средних, нет необходимости устанавливать центры произвольным образом, и они образуется плавно в зависимости от распределения значений компонентов в обучающей выборке.

Практика

Задание №1

Задание №2