Статья опубликована в рамках: CCIX Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 27 марта 2025 г.)
Наука: Юриспруденция
Скачать книгу(-и): Сборник статей конференции
дипломов
АДМИНИСТРАТИВНАЯ ОТВЕТСТВЕННОСТЬ ЗА НАРУШЕНИЕ ПРАВИЛ В СФЕРЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И БОЛЬШИХ ДАННЫХ
ADMINISTRATIVE LIABILITY FOR VIOLATION OF REGULATIONS IN THE FIELD OF ARTIFICIAL INTELLIGENCE AND BIG DATA
Alina Kharchuk
student, Faculty of Law, V.I. Vernadsky Crimean Federal University,
Russia, Simferopol
Alexandr Makuhin
supervisor, Senior Lecturer of the Department of Business and Environmental Law, V.I. Vernadsky Crimean Federal University,
Russia, Simferopol
АННОТАЦИЯ
В статье рассматривается вопрос правового регулирования использования технологий искусственного интеллекта (ИИ) и робототехники, в частности, проблема ответственности за причинение вреда с использованием этих систем. Подчёркивается необходимость разработки правового регулирования для устойчивого развития индустрии ИИ. Рассматриваются примеры использования ИИ в различных сферах, таких как системы видеонаблюдения и высокоавтоматизированный транспорт, а также возможные административные правонарушения в этой области. Предлагаются меры по совершенствованию законодательства, включая введение отдельных статей в КоАП РФ, повышение штрафов за нарушения, сертификацию определённых видов ИИ и запрет на использование ИИ без участия человека в критически важных сферах.
ABSTRACT
The article addresses the issue of legal regulation of the use of artificial intelligence (AI) and robotics technologies, particularly the problem of liability for harm caused by the use of these systems. It emphasizes the need to develop legal regulation for the sustainable development of the AI industry. Examples of AI use in various fields, such as video surveillance systems and highly automated transport, are considered, as well as possible administrative violations in this area. Measures to improve legislation are proposed, including the introduction of separate articles into the Code of Administrative Offences of the Russian Federation, increasing fines for violations, certifying certain types of AI, and banning the use of AI without human involvement in critical areas.
Ключевые слова: искусственный интеллект; штраф; административная ответственность; административное правонарушение; критически важные отрасли; персональные данные; недостоверная информация; сертификация; этические проблемы.
Keywords: artificial intelligence; fine; administrative responsibility; administrative offense; critical industries; personal data; inaccurate information; certification; ethical issues.
Технологии искусственного интеллекта (ИИ) постепенно охватывают современный мир. Машинное обучение основано на обработке беспрецедентных массивов данных, оно выводит методы анализа информации на совершенно новый уровень, а робототехника выполняет те задачи, которые раньше были прерогативой исключительно человека, потенциально делая жизнь людей более комфортной, создавая новые блага. В соответствии с Концепцией развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники, утвержденной Правительством Российской Федерации, одной из концептуальных проблем регулирования технологий искусственного интеллекта является вопрос ответственности за причинение вреда с использованием систем искусственного интеллекта и робототехники [1]. Однако большинство правоведов рассматривают последствия такого вреда только через призму гражданско-правовой или уголовной ответственности, не уделяя должного внимания административным правонарушениям в рассматриваемой сфере.
На сегодняшний день необходимость разработки механизма регулирования для устойчивого развития индустрии искусственного интеллекта стала очевидной – чтобы каждое государство, заинтересованное в извлечении максимальной пользы из ИИ и смежных технологий, уже приступило к работе над правовым регулированием соответствующей сферы. К апрелю 2021 г. собственными стратегическими документами в области развития технологий искусственного интеллекта располагали уже 30 стран, в число которых вошла и Россия [2], а в сентябре 2021 г. свою национальную стратегию искусственного интеллекта представила Великобритания [3]. При этом наличие национальной стратегии развития ИИ не является необходимым условием разработки правового регулирования искусственного интеллекта и смежных технологий. Некоторые страны выбирают иной подход к разрешению этой задачи, делая основную ставку на нормы непосредственного действия, позволяющие урегулировать точечные аспекты разработки и эксплуатации роботов и искусственного интеллекта, либо стремятся найти баланс между стратегическим планированием и непосредственным реагированием.
ИИ даёт возможность эффективнее использовать системы видеонаблюдения в общественных местах в целях профилактики различных правонарушений. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Для тестирования подобной системы были выбраны переходы станции Шатле парижского метрополитена. Конечно, открытым остается вопрос этических проблем и риска ошибки: хотя он и недостаточно высок, ощущение постоянного нахождения под наблюдением может вызывать особую тревожность у некоторых людей. Поводом для беспокойства выступает и то, что использование интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям. Например, определение внутренней склонностей людей к совершению правонарушений по некоторым внешним чертам [4].
Широко известны случаи причинения вреда в результате функционирования высокоавтоматизированных транспортных средств (беспилотного автотранспорта, роботакси). Согласно статистике дел за 2023 год об административных правонарушениях, находящихся в компетенции органов внутренних дел, возбуждено 247,9 млн, из которых 240,1 млн в сфере безопасности дорожного движения [5, с. 6]. Несмотря на то, что в силу низкой востребованности высокоавтоматизированных транспортных средств в Российской Федерации статистика правонарушений по ним отсутствует, высока вероятность их дальнейшего распространения за счёт ощутимых темпов роста мирового информационного прогресса.
Так, в Кодексе Российской Федерации об административных правонарушениях (КоАП РФ) отсутствуют специальные статьи, прямо регулирующие нарушения в сфере искусственного интеллекта (ИИ). Однако определённые действия, связанные с использованием ИИ, могут подпадать под существующие нормы КоАП РФ:
- Нарушение законодательства о персональных данных (ст. 13.11 КоАП РФ). Системы ИИ, способные автоматически собирать, обрабатывать и передавать большие объёмы информации, могут нарушать установленные правила обработки персональных данных, если это происходит без получения согласия субъектов или при несоблюдении иных требований закона. В таком случае действия разработчиков или операторов ИИ могут быть квалифицированы по статье 13.11, предусматривающей административную ответственность за нарушение законодательства о персональных данных.
- Распространение недостоверной информации. Если ИИ используется для создания и распространения фейковых новостей, дипфейков или иной ложной информации, это может привести к нарушению норм, регулирующих деятельность средств массовой информации и рекламу. Хотя КоАП РФ не содержит отдельной статьи, посвящённой ИИ, аналогичные деяния могут попадать под действие тех норм, которые направлены на обеспечение достоверности информации и защиту прав граждан в информационной сфере.
- Нарушение правил использования автоматизированных систем в сфере безопасности. При использовании ИИ в критически важных отраслях (например, в транспортных системах, медицинских сервисах или системах охраны труда) нарушение установленных требований по обеспечению безопасности может привести к созданию угрозы жизни и здоровью граждан. В таких случаях нарушения могут квалифицироваться по соответствующим статьям КоАП РФ, регламентирующим вопросы безопасности жизнедеятельности. Здесь применяется принцип аналогии, когда новые виды деятельности рассматриваются в рамках существующего законодательства.
Сейчас административные правонарушения в сфере ИИ регулируются исключительно общими нормами. Введение отдельных статей, например, «Нарушение требований к использованию искусственного интеллекта», позволит точнее регулировать эту сферу. Для предотвращения серьезных последствий, связанных с нарушением правил использования ИИ, можно повысить штрафы, например:
- За неправомерную обработку персональных данных с применением ИИ – штрафы до 1 млн руб. (сейчас до 500 тыс. руб. для юридических лиц).
- За отказ раскрыть алгоритмы ИИ, принимающие решения в социально значимых сферах (например, в здравоохранении или финансовом секторе) – штрафы до 10 млн руб., в силу особой важности данных отраслей.
- За создание и распространение дипфейков или фейковой информации с использованием ИИ – штрафы до 1–3 млн руб.
Введение сертификации для определенных видов ИИ (например, в сфере госуправления или безопасности) позволит контролировать их использование. Так, данная норма должна подразумевать запрет на использование ИИ-систем без одобрения регулирующих органов и административные штрафы за несоблюдение соответствующих стандартов. Если же ИИ используется для сбора, обработки и хранения больших массивов персональных данных, должны быть более жесткие санкции за их утечки, например штрафы до 10% от годового оборота компании за серьезные инциденты (по аналогии с GDPR). Стоит ввести полный запрет использования ИИ без участия человека в критически важных сферах (например, в судопроизводстве, здравоохранении), а за нарушение предусмотреть аннулирование лицензии на деятельность и штрафы до 10 млн руб. Также, так как сейчас основная ответственность за правонарушения в данной сфере ложится на организации, необходимо введение персональных санкций для разработчиков и операторов ИИ за халатность и дисквалификации должностных лиц на 3–5 лет за грубые нарушения (например, за создание ИИ, который системно нарушает права граждан).
В заключение можно сказать, что правовое регулирование в сфере искусственного интеллекта и больших данных становится всё более актуальным. Хотя в настоящее время административные правонарушения в этой области регулируются общими нормами, необходимо разработать специальные механизмы и стандарты для предотвращения возможных нарушений и минимизации рисков.
Очевидно, что, как и все другие отрасли права, административное право не может оставаться в стороне от новых инструментов, которые используют алгоритмы и выполняют действия, подобные человеческим.
Введение отдельных статей в КоАП РФ, повышение штрафов, сертификация определённых видов ИИ, а также ужесточение санкций за утечки персональных данных и другие нарушения могут стать эффективными мерами для обеспечения безопасности и защиты прав граждан в условиях развития технологий искусственного интеллекта.
Кроме того, важно учитывать этические аспекты использования ИИ и предотвращать возможные злоупотребления. Разработка комплексного подхода к регулированию этой сферы позволит максимально использовать потенциал искусственного интеллекта для блага общества, минимизируя при этом возможные негативные последствия.
Список литературы:
- Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г.» // Собрание законодательства РФ. 2020. № 35. С. 5593.
- Как развивается искусственный интеллект? [Электронный ресурс] // Совет по внешней и оборонной политике [сайт]. – Режим доступа: http://svop.ru/main/36999/ (дата обращения: 15.03.2025).
- National AI Strategy [Электронный ресурс]. – URL: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402<...> (дата обращения: 15.03.2025).
- Искусственный интеллект: этические проблемы [Электронный ресурс]. – URL: https://www.unesco.org/ru/articles/iskusstvennyy-intellekt-eticheskie-problemy-0 (дата обращения: 15.03.2025).
- Баканов К. С., Ляхов П. В., Исаев М. М. и др. Правоприменительная деятельность в области безопасности дорожного движения в 2023 г.: информационно-аналитический обзор. М.: ФКУ «НЦ БДД МВД России», 2024. 120 с.
дипломов
Оставить комментарий