Статья опубликована в рамках: XLVII Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ЭКОНОМИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 07 ноября 2016 г.)
Наука: Экономика
Скачать книгу(-и): Сборник статей конференции
дипломов
АЛГОРИТМ МАШИННОГО ОБУЧЕНИЯ НА ПРИМЕРЕ СЕТИ КОХОНЕНА В ОЦЕНКЕ КРЕДИТОСПОСОБНОСТИ КЛИЕНТА
Сети КОХОНЕНА – разновидность Самоорганизующихся Карт Признаков (Self-Organizing Map – SOM) специальный подтип Нейронных Сетей [2, 3]
Рисунок 1. Топология сети Кохонена для кластеризации клиентов по возрасту и доходу
В процессе обучения сети Кохонена выполняются три процедуры [1]:
1. КОНКУРЕНЦИЯ (competition)
2. ОБЪЕДИНЕНИЕ (cooperation)
3. ПОДСТРОЙКА ВЕСОВ (adaptation)
Алгоритм обучения сети Кохонена:
1. ИНИЦИАЛИЗАЦИЯ. η – скорость обучения, радиус R и вектор весов
wj = {w1j, w2j,…, wmj}
2. ВОЗБУЖДЕНИЕ. Подаём:
xn = {xn1, xn2,…, xnm}
3. КОНКУРЕНЦИЯ. Скоринговая функция:
4. ОБЪЕДИНЕНИЕ
5. ПОДСТРОЙКА
Рисунок 2. Подстройка нейронов в соседстве с нейроном-победителем
Правило (1):
wij, новое = wij, текущее + η(xnj – wij, текущее ) (1)
6. КОРРЕКЦИЯ
Рисунок 3. Сеть Кохонена 2x2
На входе даны следующие веса:
w11 = 0,9 |
w21 = 0,8 |
w12 = 0,9 |
w22 = 0,2 |
w13 = 0,1 |
w23 = 0,8 |
w14 = 0,1 |
w24 = 0,2 |
Для примера возьмем следующую таблицу, разделеную на 4 кластера по 2 признакам Возраст и Доход:
Таблица 1.
Исходные данные
N |
Xi1 |
Xi2 |
Описание |
1 |
X11 = 0,8 |
X12 = 0,8 |
Пожилой человек с высоким доходом |
2 |
X21 = 0,8 |
X22 = 0,1 |
Пожилой человек с низким доходом |
3 |
X31 = 0,2 |
X32 = 0,9 |
Молодой человек с высоким доходом |
4 |
X41 = 0,1 |
X42 = 0,1 |
Молодой человек с низким доходом |
Считаем, что R = 0 и η = 0,5
Берем 1-й вектор из таблицы x1 (0,8; 0,8) и выполним такие действия как конкуренция, объединение и подстройка.
Конкуренция. Вычисляем евклидово расстояние между входным вектором x1 (0,8; 0,8) и векторами весов всех 4-х нейронов выходного слоя
Нейрон 1:
Нейрон 2:
Нейрон 3:
Нейрон 4:
Объединение. Нейроном победителем является Нейрон 1, так как его значение самое наименьшее из всех (0,1)
Подстройка. Поскольку для первого нейрона j=1 и для первой записи n=1, при коэффициенте скорости обучения η = 0,5 для правила (1) получим:
wi1, новое = wi1, текущее + 0,5(x1j – wi1, текущее )
Тогда, для признака Возраст:
w11, новое = w11, текущее + 0,5×(x11 – w11, текущее ) = 0,9+0,5×(0,8 – 0,9) = 0,85
Для признака Доход:
w21, новое = w21, текущее + 0,5×(x12 – w21, текущее ) = 0,8+0,5×(0,8 – 0,8) = 0,8
Берем 2-й вектор из таблицы x2 (0,8; 0,1) и выполним такие действия как конкуренция, объединение и подстройка.
Конкуренция. Вычисляем евклидово расстояние между входным вектором x2 (0,8; 0,1) и векторами весов всех 4-х нейронов выходного слоя
Нейрон 1:
Нейрон 2:
Нейрон 3:
Нейрон 4:
Объединение. Нейроном победителем является Нейрон 2, так как его значение самое наименьшее из всех (0,14)
Подстройка. Поскольку победил 2-й нейрон, то j=2 и для второй записи n=2, при коэффициенте скорости обучения η = 0,5 в соответствии с (1) получим:
wi2, новое = wi2, текущее + 0,5(x2j – wi2, текущее )
Тогда, для признака Возраст:
w12, новое = w12, текущее + 0,5×(x21 – w12, текущее ) = 0,9+0,5×(0,8 – 0,9) = 0,85
Для признака Доход:
w22, новое = w22, текущее + 0,5×(x22 – w22, текущее ) = 0,2+0,5×(0,1 – 0,2) = 0,15
Берем 3-й вектор из таблицы x3 (0,2; 0,9) и выполним такие действия как конкуренция, объединение и подстройка.
Конкуренция. Вычисляем евклидово расстояние между входным вектором x3 (0,2; 0,9) и векторами весов всех 4-х нейронов выходного слоя
Нейрон 1:
Нейрон 2:
Нейрон 3:
Нейрон 4:
Объединение. Нейроном победителем является Нейрон 3, так как его значение самое наименьшее из всех (0,14)
Подстройка. Поскольку победил 3-й нейрон, то j=3 и для третьей записи n=3, при коэффициенте скорости обучения η = 0,5 в соответствии с (1) получим:
wi3, новое = wi3, текущее + 0,5(x3j – wi3, текущее )
Тогда, для признака Возраст:
w13, новое = w13, текущее + 0,5×(x31 – w13, текущее ) = 0,1+0,5×(0,2 – 0,1) = 0,15
Для признака Доход:
w23, новое = w23, текущее + 0,5×(x32 – w23, текущее ) = 0,8+0,5×(0,9 – 0,8) = 0,85
Берем 4-й вектор из таблицы x4 (0,1; 0,1) и выполним такие действия как конкуренция, объединение и подстройка.
Конкуренция. Вычисляем евклидово расстояние между входным вектором x4 (0,1; 0,1) и векторами весов всех 4-х нейронов выходного слоя
Нейрон 1:
Нейрон 2:
Нейрон 3:
Нейрон 4:
Объединение. Нейроном победителем является Нейрон 4, так как его значение самое наименьшее из всех (0,1)
Подстройка. Поскольку победил 4-й нейрон, то j=4 и для четвертой записи n=4, при коэффициенте скорости обучения η = 0,5 в соответствии с (1) получим:
wi4, новое = wi4, текущее + 0,5(x4j – wi4, текущее )
Тогда, для признака Возраст:
w14, новое = w14, текущее + 0,5×(x41 – w14, текущее ) = 0,1+0,5×(0,1 – 0,1) = 0,1
Для признака Доход:
w24, новое = w24, текущее + 0,5×(x42 – w24, текущее ) = 0,2+0,5×(0,1 – 0,2) = 0,15
Таким образом, из проведенного анализа получим итоговую таблицу, содержащую в себе номер кластрера и соответсвующий номер нейрона, который был получен в результате вычислений.
Таблица 2.
Результат вычислений
№ кластера |
№ нейрона |
Описание |
1 |
1 |
Пожилой человек с высоким доходом |
2 |
2 |
Пожилой человек с низким доходом |
3 |
3 |
Молодой человек с высоким доходом |
4 |
4 |
Молодой человек с низким доходом |
Список литературы:
1. Кластеризатор на основе нейронной сети Кохонена [Электронный ресурс] – Режим доступа: URL: http://mechanoid.kiev.ua/neural-net-kohonen-clusterization.html (дата обращения: 4.11.16)
2. Нейронные сети [Электронный ресурс] – Режим доступа: URL: http://statsoft.ru/home/textbook/modules/stneunet.html (дата обращения: 3.11.16)
3. Сети и карты Кохонена [Электронный ресурс] – Режим доступа: URL: http://gorbachenko.self-organization.ru/articles/Self-organizing_map.pdf (дата обращения: 31.10.16)
дипломов
Оставить комментарий