Статья опубликована в рамках: CXXX Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 09 октября 2023 г.)
Наука: Информационные технологии
Скачать книгу(-и): Сборник статей конференции
дипломов
ОСНОВНЫЕ ПРИНЦИПЫ ЭФФЕКТИВНОГО КОДИРОВАНИЯ ИНФОРМАЦИИ ПРИ ПЕРЕДАЧЕ СИГНАЛОВ
BASIC PRINCIPLES OF EFFICIENT INFORMATION CODING DURING SIGNAL TRANSMISSION
Arina Kokina
student, Department of Information Technologies and General Scientific Disciplines, Institute of Aviation Technologies and Management, Ulyanovsk State Technical University
Russia, Ulyanovsk
Margarita Kulikova
Scientific supervisor, assistant of the Department of Information Technologies and General Scientific Disciplines, Institute of Aviation Technologies and Management Ulyanovsk State Technical University,
Russia, Ulyanovsk
АННОТАЦИЯ
В данной статье описываются основные характеристики информации, рассматриваемой с точки зрения теории информации. Рассматривается понятие сигнала, информационного канала, эффективного кодирования, дискретизации сигнала, измерения количества информации, и приводится теорема Котельникова, позволяющая разработать принципы эффективного кодирования.
ABSTRACT
This article describes the main characteristics of information considered from the point of view of information theory. The concept of a signal, an information channel, effective coding, signal sampling, measuring the amount of information is considered, and Kotelnikov's theorem is given, which allows us to develop the principles of effective coding.
Ключевые слова: информация; сигнал; кодирование; дискретизация; алгоритмы.
Keywords: information; signal; coding; sampling; algorithms.
Определение термина «информация» является нерешенной задачей уже многие годы. Каждая наука рассматривает информацию с разных точек зрения и создаёт собственные акценты на различных характеристиках информации. В гуманитарных науках зачастую информация рассматривается как знания, накопленные людьми с течением времени [3]. Однако в сфере информационных технологий такое понятие неприменимо. Лишь сравнительно недавно начала формироваться отдельная научная дисциплина – теория информации, которая даёт несколько более строгих определений информации. В упрощённом виде, согласно теории информации, информацию можно понимать как совокупность сведений о каком-либо событии, объекте, явлении природы или общества.
Информация может передаваться совершенно разными способами – звуками, символами, а в современном мире и с помощью последовательности различных электрических напряжений. Во всех случаях сохраняется одна характеристика – информация представляется в виде последовательности некоторых «значений».
Если брать последовательность значений за базис представления информации, то можно сделать вполне логичный вывод о том, что любую информацию можно представить в виде некоторой функции времени.
Представление информации в виде функции времени можно назвать «сигналом». Сигнал – это любая функция, аргументом которой является время, а значением – величина, которую можно представить числом или символом.
В современном мире подавляющая часть информации передаётся именно с помощью сигналов – по информационным каналам. Под информационным каналом понимается любое устройство, предназначенное для передачи сигнала в пространстве или времени. Информационный канал может иметь любое физическое воплощение – телеграф, телефонные станции, сотовые сети и так далее.
Однако для того чтобы передавать информацию по информационным каналам, сперва её необходимо закодировать в приемлемой для данного информационного канала форме. Обратимое кодирование информации – это преобразование информации из одной формы в другую, допускающее восстановление исходной формы информации без искажений. Необратимое кодирование, соответственно, не допускает восстановления информации и не имеет такого широкого применения, как обратимое.
Зачастую в настоящее время используются цифровые устройства передачи, которые оперируют последовательностями чисел – в которые кодируется необходимая информация. Наиболее распространённым является двоичное кодирование с помощью цифр «1» и «0».
Итак, если представлять информацию в виде сигнала, то она разделяется на две основных категории – непрерывная и дискретная [2]. Для более простой формы математического выражения рассматривается дискретная информация, но все выводы, полученные в результате, могут применяться к непрерывной информации тоже.
Любая информация, полученная в непрерывной форме, должна быть дискретизирована для передачи по информационным каналам [2]. Дискретизация подразумевает собой разделение непрерывной функции на отдельные значения в конкретные моменты времени, разделенные некоторым периодом. Во время дискретизации можно столкнуться с различными проблемами: если период дискретизации слишком мал, то информацию будет крайне тяжело восстановить; если период дискретизации слишком велик, то количество значений, которые необходимо передать или хранить, стремится к бесконечности.
Для того чтобы оптимизировать процесс дискретизации используется основная теорема дискретизации: «Теорема Уиттакера – Найквиста – Котельникова – Шеннона». Теорема Котельникова доказывает, что непрерывный сигнал можно заменить его дискретными значениями и дает правило вычисления шага дискретизации (1):
(1)
– интервал дискретизации,
– верхняя граница спектра исходного сигнала.
После того, как непрерывная функция, передающая некоторую информацию, оказалась дискретизирована, необходимо закодировать полученные значения. Кодирование необходимо не только для того чтобы обеспечить возможность передачи информации по информационному каналу, но и для того чтобы увеличить скорость передачи информации, защитить информацию от искажений и несанкционированного доступа. Как упоминалось ранее, кодирование может быть осуществлено различными способами, но зачастую на кодирование накладывает ограничение физическая природа канала. Например, если канал – металлический проводник, то по нему необходимо передавать информацию в виде электрических импульсов. Если канал – оптоволокно, то информацию необходимо передавать в виде импульсов света.
Эффективное кодирование информации подразумевает собой преобразование информации к наиболее краткой форме записи, при которой всё ещё сохраняется возможность восстановления информации без искажений. Количество бит информации, в которое необходимо «уложиться» для достижения наиболее краткой формы записи, трактуется формулой Шеннона (2), которая также называется вероятностной мерой информации.
(2)
– количество информации,
– конкретные значения из дискретной последовательности,
– вероятность (доля) конкретного значения среди общего числа значений.
Существуют различные способы эффективного кодирования информации. Чаще всего применяются статистические алгоритмы кодирования. «Если информация – последовательность чисел, фиксированной битовой длины (символов), и частота, с которой различные числа присутствуют в этих данных, различается, то, заменив битовые цепочки фиксированной длины на битовые цепочки различной длины, так, чтобы более часто встречающимся числам (символам) соответствовали бы более короткие цепочки, можно получить уменьшение объема данных» [4]. Одним из таких алгоритмов является алгоритм Хаффмана, разработанный в 1952 году Дэвидом Хаффманом. Однако в процессе эволюции теории информации этот алгоритм претерпевал некоторые улучшения, для оптимизации результатов. Алгоритм Хаффмана основан на построении бинарных деревьев, в узлах которых учитываются не только сами символы, но и частота их появления в заданной комбинации.
Рисунок 1. Построение бинарного дерева для алгоритма Хаффмана
Алгоритм Хаффмана остаётся одним из наиболее эффективных алгоритмов сжатия данных даже в настоящее время и используется во многих программах-архиваторах, протоколах передачи данных и при сжатии фото- и видеоизображений.
Список литературы:
- Душин В. К. Теоретические основы информационных процессов и систем. Учебник. – Издательско-торговая корпорация «Дашков и К», 2009. – 348 с.
- Лидовский В. В. Теория информации: Учебное пособие. – М.: Компания Спутник+, 2004. – 111 с.
- Шавенько Н. К. Основы теории информации. Учебное пособие. – М,: Издательство МИИГАиК, 2019. – 135 с.
- Установочные лекции по курсу «Технологии обработки информации» // Контент-платформа Pandia.ru. [электронный ресурс] – Режим доступа. – URL: https://pandia.ru/text/78/375/1554.php (дата обращения: 04.10.2023)
- Формула Шеннона, информационная энтропия // Best-exam. Учебные материалы, онлайн тесты, лекции по предметам. – 2022. – [электронный ресурс] – Режим доступа. – URL: https://best-exam.ru/formula-shenona (дата обращения: 04.10.2023)
дипломов
Оставить комментарий