Статья опубликована в рамках: CLXV Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 25 мая 2023 г.)
Наука: Технические науки
Секция: Технологии
Скачать книгу(-и): Сборник статей конференции
дипломов
ПРОБЛЕМА ВЫЯВЛЕНИЯ ДЕЗИНФОРМАЦИИ, СОЗДАННОЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ
PROBLEM OF DETECTING DISINFORMATION CREATED BY ARTIFICIAL INTELLIGENCE
Anastasia Sosunova
student, Department of Technological Management, and Innovation, ITMO National Research University,
Russia, St. Petersburg
АННОТАЦИЯ
В данной статье рассмотрено использование искусственного интеллекта в СМИ. Также представлены результаты опроса на тему необходимости защиты информационного поля от дезинформации, которую может генерировать искусственный интеллект. Приведены варианты решений данной проблемы, которые предпринимаются уже сейчас, а также предложены другие меры по предотвращению распространения дезинформации.
ABSTRACT
This article discusses the use of artificial intelligence in the media. The results of the survey on the need to protect the information field from disinformation that can generate artificial intelligence are also presented. The article provides options of solutions to this problem, which are already being implemented, and offers other measures to prevent the spread of disinformation.
Ключевые слова: искусственный интеллект; дезинформация; манипуляция; СМИ; информация; этические рамки; государство; социальная сеть; ограничения; доверие.
Keywords: artificial intelligence; disinformation; manipulation; media; information; ethical framework; government; social network; limitations; trust.
Интернет – масштабное веб-пространство, к которому каждый человек имеет доступ, и где каждый может внести свой вклад в виде публикации какой-либо информации. На данный момент в список обычных пользователей добавляется искусственный интеллект, способный генерировать разного рода данные (статьи, фотографии, музыку и так далее) и с помощью человека публиковать результаты своего труда. На этом этапе и возникает проблема использования данного «инструмента» в качестве создателя уникальных новостей, которые не всегда верно отражают реальность. Такая, своего рода, манипуляция может приводить как к социальным волнениям внутри страны, так и к ухудшению взаимоотношений между государствами. Если задуматься о корректном использовании искусственного интеллекта, то можно выявить способ по устранению данной проблемы, которая с прогрессом машинного интеллекта становится все более насущной.
Развитие и широкое использование искусственного интеллекта порождает разного рода проблемы, но одна из главных – это создание и распространение дезинформации на новостных сайтах и в социальных сетях. Обладатели таких источников информации имеют возможность публиковать как правду, так и ложь, если за этим не ведется должного контроля. Чтобы убедиться в том, что такая проблема действительно существует, был проведен опрос, в котором приняло участие 93 человека, возраст которых варьируется от 12 до 75 лет. По результатам опроса можно сделать вывод, что 80% опрошенных (см. рис. 1) получают информацию из социальных сетей и новостных сайтов, но только 12% из них полностью доверяет этим источникам (см. рис. 2 и рис. 3). Это обуславливается тем, что люди не имеют представления о том, кто публикует информацию, а также не всегда могут найти подтверждение таким новостям в других источниках. 90% всех опрошенных хотели бы, чтобы дезинформации в информационном поле стало меньше (см. рис. 3).
Рисунок 1. Источники информации, к которым чаще всего обращаются опрошенные
Рисунок 2. Степень доверия опрошенных к новостям из социальных сетей (0 – отсутствие доверия; 3 – высокая степень доверия)
Рисунок 3. Степень доверия опрошенных к новостям с новостных сайтов (0 – отсутствие доверия; 3 – высокая степень доверия)
Рисунок 4. Актуальность защиты от дезинформации для опрошенных
На данный момент искусственный интеллект в виде чат-ботов пользуется высокой популярностью на просторах Интернета, особенно в сети «Telegram». Ниже представленные данные будут примером того, как нейросеть генерирует различную текстовую информацию и изображения, которые могли бы быть использованы в качестве новостей (см. рис. 5, рис. 6, рис. 7). Стоит отметить, что в некоторых нейросетях установлены ограничения на генерацию острых тем. Например, нейросеть от Yandex «Балабоба» не будет генерировать текст о специальной военной операции или о Второй Мировой войне.
Рисунок 5. Экс-президент США Дональд Трамп в тюрьме
Рисунок 6. Туристы рядом с медведем
Рисунок 7. Илон Маск в СССР
Далее представлены фрагменты текстов, написанных нейросетью от Yandex «Балабоба»:
- «Филипп Киркоров обидел фанатку тем, что не ответил на ее комментарий в социальной сети. В свою очередь женщина в ответ тоже обиделась и написала: «Как вы могли так поступить? Вы же звезда!».»
- «Алла Пугачева развелась с Максимом Галкиным из-за измены. Алла Пугачева и Максим Галкин развелись после 13 лет брака. Об этом сообщил портал Super.ru со ссылкой на слова близкой подруги певицы. По словам источника, Алла Борисовна развелась из-за того, что Галкин ей изменил. «Алла не из тех людей, кто прощает измену!».»
Стоит обратить внимание и на то, что приведенный сайт «Super.ru» действительно существует, но информации о разводе Аллы Пугачевой и Максима Галкина там нет. Также, если спросить у нейросети «ChatGPT», написан ли текст выше человеком, то нейросеть даст утвердительный ответ.
На 13 Международном IT-форуме с участием стран БРИКС и ШОС одним из главных обсуждений было использование искусственного интеллекта для пропаганды, манипуляции и интеллектуального и эмоционального воздействия с помощью размещения различной информации в Интернете. «Исследователи Ланкастерского и Калифорнийского университетов установили, что средний уровень доверия, который вызывают изображения людей, созданные ИИ, на 7,7% выше, чем средний уровень доверия изображениям реальных людей» [1, с. 108]. Этот вывод подтверждает опасность распространения дезинформации, которая создана искусственным интеллектом.
Главным вопросом является устранение распространения дезинформации в СМИ, которая создана с помощью искусственного интеллекта. Решения могут лежать как на социальном уровне, так и на технологическом. Сейчас в России предложено большое количество программ по развитию знаний у взрослых и детей об информационной безопасности, одна из самых недавних, например, это утвержденный Михаилом Мишустиным документ о защите юных россиян от информационных угроз и рисков в цифровой среде. Это подразумевает под собой введение в школах уроков информационной безопасности и цифровой и цифровой грамотности. Данное решение касается социальной сферы. Если мы говорим о технологической стороне решения, стоит рассмотреть создание такого искусственного интеллекта, который будет иметь доступ к результатам по запросам пользователей к любой нейросети и искать похожую размещенную информацию в Интернете. Далее, так как нейросеть пока не может точно понимать смысл высказываний или воспринимает его искаженно, то подозрения на сходство результата будут отправляться работнику, который уже будет сверять данные и выводить окончательное решение. Таким образом, результат работы искусственного интеллекта будет подконтролен, а для человека это новое рабочее место.
Искусственный интеллект – разработка, открывающая для человека огромное количество возможностей. Чем больше возможностей, тем больше вероятность того, что люди будут использовать технологию в корыстных и неприемлемых целях. Именно поэтому в исследовательской работе представлены результаты опроса на предмет актуальности уменьшения дезинформации, которой с развитием искусственного интеллекта становится все больше, а также результаты работы нейросетей, которые могут создавать слишком правдоподобную информацию.
Список литературы:
- Матяшова Д.О. Злонамеренное использование искусственного интеллекта обсудили в рамках XIII международного IT-форума // Пролог: журнал о праве. - 2022. - №2. [электронный ресурс] – Режим доступа. - URL: https://cyberleninka.ru/article/n/zlonamerennoe-ispolzovanie-iskusstvennogo-intellekta-obsudili-v-ramkah-xiii-mezhdunarodnogo-it-foruma (дата обращения 12.05.2023)
дипломов
Оставить комментарий