Поздравляем с Новым Годом!
   
Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 17(17)

Рубрика журнала: Информационные технологии

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2

Библиографическое описание:
Кулакович А.Ю., Баранов Е.Ю., Акименко А.В. ОБЗОР ОДНОСЛОЙНОЙ НЕЙРОННОЙ СЕТИ // Студенческий: электрон. научн. журн. 2017. № 17(17). URL: https://sibac.info/journal/student/17/86194 (дата обращения: 29.12.2024).

ОБЗОР ОДНОСЛОЙНОЙ НЕЙРОННОЙ СЕТИ

Кулакович Александр Юрьевич

магистрант, отдел магистратуры ДГТУ, Донской Государственный Технический Университет,

РФ, г. Ростов-на-Дону

Баранов Евгений Юрьевич

магистрант, отдел магистратуры ДГТУ, Донской Государственный Технический Университет,

РФ, г. Ростов-на-Дону

Акименко Александр Владимирович

магистрант, отдел магистратуры ДГТУ, Донской Государственный Технический Университет,

РФ, г. Ростов-на-Дону

Аннотация

В этой статье предлагается краткий обзор истории и основных концепций машинного обучения. Мы рассмотрим первую алгоритмически описанную нейронную сеть в контексте адаптивных линейных нейронов, который будет не только вводить принципы машинного обучения, но и послужить основой для современных многослойных нейронных сетей.

 

Введение

Машиноведение является одним из самых популярных и захватывающих направлений в современную эпоху технологий. Благодаря компьютерному обучению мы используем надежные фильтры от спама в электронной почте, удобным текстовым и голосовым распознаванием, надежными поисковыми машинами в интернете и надеюсь, в ближайшее время, безопасными и эффективными беспилотными автомобилями.

Без сомнения, машинное обучение стало большой и популярной областью. Таким образом, было бы целесообразно изучить различные алгоритмы машинного обучения более подробно.

Машинное обучение - класс методов искусственного интеллекта, характерной чертой которых является не прямое решение задачи, а обучение в процессе применения решений множества сходных задач. Для построения таких методов используются средства математической статистики, численных методов, методов оптимизации, теории вероятностей, теории графов, различные техники работы с данными в цифровой форме.

Искусственные нейроны и модель МакКаллоха-Питтса

Первоначальная идея персептрона упоминается к работе Уоррена МакКаллоха и Уолтера Пистса в 1943 году, которые провели аналогию между биологическими нейронами и простыми логическими выходами с двоичными выходами.

 

Рисунок 1. Общая схема нейрона

 

Где Input – это вход, Output –Выход, Dendrites – дендриты, Cell nucleus – ядро нейрона, Axon – аксон.

В более интуитивных терминах нейроны можно понимать как субъединицы нейронной сети в биологическом мозге. Здесь сигналы переменных величин поступают к дендритам. Затем эти входные сигналы накапливаются в теле клетки нейрона, и если накопленный сигнал превышает определенный порог, то генерируется выходной сигнал, который будет передаваться аксоном.

Персептрон Фрэнка Розенблатта

Перцептрон, или персептрон — математическая или компьютерная модель восприятия информации мозгом.

Чтобы продолжить рассказ, спустя несколько лет после Маккаллоха и Уолтера Питта, Фрэнк Розенблатт опубликовал первую концепцию правила обучения Персептрону. Основная идея заключалась в том, чтобы алгоритм узнавал значения весов - w, которые затем умножаются на входные функции, чтобы принять решение о том, выбирать этот нейрон или нет. В контексте классификации шаблонов такой алгоритм может быть полезен для определения того, относится ли образец к тому или иному классу.

 

Рисунок 2. Пример границы линейного решения для двоичной классификации

 

Задача состоит в том, чтобы предсказать, к какой из двух возможных категорий принадлежит определенная точка данных, на основе набора входных переменных.

Правило обучения персептрона

Это может показаться крайним случаем редукционистского подхода, но идея этого «порогового» персептрона заключалась в том, чтобы подражать тому, как работает один нейрон в мозге: он либо «срабатывает», либо нет. Чтобы суммировать основные элементы персептрон принимает несколько входных сигналов, и если сумма входных сигналов превышает определенный порог, он либо возвращает сигнал, либо остается «молчащим» в противном случае. То, что сделало это алгоритмом машинного обучения, - это идея Фрэнка Розенблатта о правиле обучения персептрона: алгоритм персептрона заключается в изучении весов для входных сигналов для того, чтобы нарисовать границу линейного решения, что позволяет нам различать два линейно разделяемых класса + 1 и -1.

 

Рисунок 3. Схема строения персептрона Розенблатта

 

Заключение

Таким образом, в данной статье был проведен обзор моделей модель МакКаллоха-Питтса, персептрон Фрэнка Розенблатта, правило обучения персептрона и детально рассмотрена схема строения персептрона Розенблатта.

 

Список литературы:

  1.  Ф. Розенблатт. Персептрон, воспринимающий и распознающий автомат Project Para. Корнеллская авиационная лаборатория, 1957.
  2.  W. S. McCulloch и W. Pitts. Логическое исчисление идей, имманентных в нервной деятельности. Бюллетень математической биофизики, 5 (4): 115-133, 1943.
  3.  С. Хайкин, Нейронные сети: Полный курс. 2006 г.
  4. B. Recht and C. R ́e. Beneath the valley of the noncommutative arithmetic-geometric mean inequality: conjectures, case-studies, and consequences. arXiv preprint arXiv:1202.4184, 2012.
  5.  Ф. Уоссермен, Нейрокомпьютерная техника: Теория и практика. 1992 г.
  6.  Д. Форсайт, Компьютерное зрение. Современный подход. 2004 г.

Оставить комментарий