Статья опубликована в рамках: CXLVI Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 06 февраля 2025 г.)
Наука: Математика
Скачать книгу(-и): Сборник статей конференции
дипломов
МАТЕМАТИКА — НЕВИДИМЫЙ ДВИГАТЕЛЬ ИИ: ОТ ПРОСТЫХ АЛГОРИТМОВ ДО СЛОЖНЫХ НЕЙРОННЫХ СЕТЕЙ
MATHEMATICS: THE UNSEEN DRIVING FORCE OF AI, FROM BASIC ALGORITHMS TO SOPHISTICATED NEURAL NETWORKS
Alexey Kuznetsov
student, Department of "Devices and Information-Measuring Systems, MIREA – Russian Technological University (RTU MIREA),
Russia, Moscow
Arseny Kolesnichenko
student, Department of "Devices and Information-Measuring Systems, MIREA – Russian Technological University (RTU MIREA),
Russia, Moscow
АННОТАЦИЯ
Представьте себе современный автомобиль. Он состоит из множества деталей: колеса, двигатель, руль, электроника и многое другое. Но что приводит его в движение? Двигатель, конечно. В мире искусственного интеллекта (ИИ) роль двигателя играет математика. Она — не просто вспомогательный инструмент, а фундамент, на котором строится вся область ИИ. Математика — это язык, на котором мы говорим с машинами, это набор инструментов, который позволяет нам анализировать данные, моделировать сложные системы и создавать "интеллектуальные" алгоритмы. В этой статье мы проследим, как математика развивалась вместе с ИИ, от простейших правил до сложных нейронных сетей, показывая, что без математики не было бы и современного ИИ. Мы начнем с самых основ, перейдем к классическим методам и закончим современным глубоким обучением, чтобы увидеть, как математические принципы присутствуют на каждом этапе.
ABSTRACT
Imagine a modern car. It consists of many parts: wheels, an engine, a steering wheel, electronics, and much more. But what makes it move? The engine, of course. In the world of artificial intelligence (AI), mathematics plays the role of the engine. It's not just a supporting tool, but the foundation upon which the entire field of AI is built. Mathematics is the language we use to communicate with machines; it's the toolbox that enables us to analyze data, model complex systems, and create "intelligent" algorithms. In this article, we will trace how mathematics has evolved alongside AI, from the simplest rules to complex neural networks, showing that without mathematics, modern AI wouldn't exist. We will start with the very basics, then move on to classical methods, and conclude with modern deep learning to see how mathematical principles are present at every stage.
Ключевые слова: искусственный интеллект, математика, машинное обучение.
Keywords: artificial intelligence, mathematics, machine learning.
Математика в простых алгоритмах ИИ
Даже самые простые алгоритмы ИИ, которые кажутся нам очень элементарными, на самом деле основаны на четких математических принципах.
Булева алгебра — это раздел математики, занимающийся изучением операций с логическими значениями истинности. Она основана на системе, определяемой значениями «истина» и «ложь», обычно обозначаемыми как 1 и 0 соответственно. Основные операции булевой алгебры логики включают конъюнкцию (И), дизъюнкцию (ИЛИ) и отрицание (НЕ). Данные операции лежат в основе цифровой логики и имеют широкое применение в областях, таких как компьютерные науки, цифровая электроника и теория множеств. [1]
Логика и булева алгебра лежат в основе многих правил и условий, которые используются в алгоритмах ИИ. Например, в экспертных системах, которые применяются в медицине и юриспруденции, решения принимаются на основе набора логических правил, которые можно представить с помощью булевой алгебры. Булева алгебра позволяет формализовать логические операции "И", "ИЛИ", "НЕ" и на их основе строить сложные алгоритмы принятия решений. Например, простой алгоритм классификации на основе правил может использовать булевы операции для определения, к какому классу относится объект на основе заданных условий. Алгоритмы поиска, например, поиск пути в лабиринте, также используют логические принципы для выбора следующего шага.
Теория множеств и комбинаторика играют важную роль в представлении данных и моделировании сценариев. Например, алгоритмы кластеризации, которые группируют схожие объекты в наборы, используют теорию множеств для описания наборов данных. Алгоритмы поиска кратчайшего пути, используемые в навигационных системах, опираются на комбинаторные методы для вычисления различных вариантов пути.
Простейшие статистические методы и теория вероятностей позволяют нам анализировать данные и принимать решения на основе вероятностей. Наивный байесовский классификатор, часто используемый для фильтрации спама, основан на простых формулах для расчета вероятности принадлежности объекта к тому или иному классу. Метод k-ближайших соседей использует статистику для определения класса объекта на основе его окружения. Даже простая оценка вероятностей является базовым статистическим инструментом, который позволяет количественно оценить меру неопределенности.
Таким образом при использовании искусственного интеллекта даже при решении простейших задач необходимо учитывать все возможные случаи развития событий. Иначе мы можем получить неверный ответ или ответ, не понятный пользователю. [2]
Математика в классическом машинном обучении
Классическое машинное обучение использует более продвинутый математический аппарат. В этой области математика становится не просто инструментом, а полноценным языком, на котором говорят модели.
Линейная алгебра является краеугольным камнем многих алгоритмов. Она позволяет нам представлять данные в виде векторов и матриц, и выполнять над ними необходимые преобразования. Линейная регрессия, которую используют для прогнозирования числовых значений, основана на решении систем линейных уравнений. Метод опорных векторов (SVM) использует линейную алгебру для построения оптимальной разделяющей гиперплоскости между классами. Метод главных компонент (PCA) использует линейную алгебру для снижения размерности данных, выделяя наиболее важные компоненты.
Многомерное исчисление играет решающую роль в оптимизации моделей. Методы дифференциального и интегрального исчисления помогают нам находить оптимальные значения параметров, которые минимизируют ошибку модели. Градиентный спуск, который используется для обучения множества моделей машинного обучения, основан на вычислении производных функции потерь. Логистическая регрессия, которую применяют для классификации, использует производные функции логистической сигмоиды. Метод максимального правдоподобия использует интегральное исчисление для оценки параметров статистических моделей.
Алгоритм Байеса — это статистический метод, который используется для определения вероятности событий на основе предыдущих знаний об этом событии. Этот метод основан на теории вероятности, которая позволяет нам оценить вероятность случайного события, на основе его значимости и частоты его возникновения. [3]
Статистические методы используются для оценки моделей и определения, насколько хорошо они обобщают новые данные. Байесовская классификация использует теорему Байеса для расчета апостериорных вероятностей. Метод k-средних использует статистику для определения центров кластеров. Анализ дисперсии (ANOVA) позволяет нам сравнивать разные группы данных и проверять статистические гипотезы.
Эти примеры показывают, что классическое машинное обучение опирается на более сложный математический аппарат, позволяющий моделям анализировать данные, строить модели и принимать решения на их основе.
Математика в глубоком обучении
Глубокое обучение, которое стало революцией в области ИИ, подняло роль математики на совершенно новый уровень.
Многомерное исчисление и оптимизация являются основой обучения глубоких нейронных сетей. Обратное распространение ошибки (backpropagation) является процессом итеративного вычисления градиента функции потерь и нахождения оптимальных значений параметров сети, который основан на дифференциальном исчислении. Методы оптимизации, такие как Adam и RMSprop, используют градиентный спуск и его усовершенствованные варианты.
Теория вероятностей используется не только для анализа, но и для создания новых данных. Генеративные модели, такие как вариационные автоэнкодеры (VAE) и генеративные состязательные сети (GAN), используют вероятностные методы для генерации новых изображений, текстов и других типов данных. Байесовские нейронные сети используют теорию вероятностей для оценки неопределенности в моделях, что повышает их надежность.
Эти примеры показывают, что глубокое обучение требует более сложного и утонченного математического аппарата, позволяя создавать модели, способные решать очень сложные задачи.
В этой статье мы проследили за эволюцией ИИ и увидели, как на каждом этапе математика была его невидимым двигателем. От простых логических правил до сложных нейронных сетей, от базовой статистики до продвинутых методов оптимизации - математика является неотъемлемой частью ИИ. Она - это не просто набор формул, а язык, на котором мы понимаем принципы работы машинного интеллекта. Настоящий прогресс в ИИ невозможен без прогресса в математике. В будущем новые направления исследований, такие как дифференциальная геометрия и функциональный анализ, могут привести к созданию еще более мощных алгоритмов ИИ. Поэтому, если вы интересуетесь ИИ, не забывайте о математике – она станет вашим надежным проводником в этом увлекательном мире. Призываем вас к дальнейшему изучению математических основ ИИ, чтобы не только понимать принципы его работы, но и создавать новые, более совершенные и мощные модели.
Список литературы:
- https://blog.skillfactory.ru/glossary/buleva-algebra/?ysclid=m6mrhr0lx1940210229
- https://school-science.ru/18/7/54113?ysclid=m6mroxeeqs118501309
- https://habr.com/ru/companies/otus/articles/733598/
дипломов
Оставить комментарий