На главную страницу
О журнале План выхода Подписка Интернет-Магазин Реклама Контакты и реквизиты English На главную страницу Карта сайта Поиск по сайту Обратная связь

перейти к Содержанию номера
№ 4 (118)   июль–август 2024 г.
Раздел: Криптография и стеганография
Энтропия как оценка числа модификации кода от исходного хаоса к максимальному порядку: быстрый алгоритм приближенной оценки качества случайных последовательностей
Entropy as an Estimate of the Number of Code Modifications from Initial Chaos to Maximum Order
Александр Иванович Иванов, доктор технических наук, профессор
АО «Пензенский научно-исследовательский электротехнический институт»
A. I. Ivanov, PhD (Eng., Grand Doctor), Full Professor
Penza Research Electrotechnical Institute

Предыдущая статьяСледующая статья

УДК 519.24; 53; 57.017

Клод Шеннон в середине прошлого века переложил энтропию термодинамики на тексты (дискретные последовательности). Это сегодня стало классикой. К сожалению, для длинных чисел, например, для кодов, зашифрованных на длинном ключе текстов, оценка энтропии по Шенонну требует выборки данных огромного размера. Причина — экспоненциальная вычислительная сложность оценок энтропии по Шеннону. Одним из путей обхода экспоненциальной вычислительной сложности является упорядочивание хаоса длинных последовательностей до последовательностей с меньшим уровнем случайности. В статье рассматривается выполнение упорядочивания независимых данных до почти детерминированной функции. Предложено использование процедур упорядочивания данных для синтеза еще одной упрощенной оценки энтропии, имеющей квадратичную вычислительную сложность. При этом шкала значений энтропии может оказаться близкой к шкале значений энтропии Шеннона — Хэмминга, имеющей линейную вычислительную сложность.

< ... >

Ключевые слова: энтропия Шеннона, упорядочивание хаоса, квадратичная вычислительная сложность, малые выборки

Claude Shannon in the middle of the last century transferred the entropy of thermodynamics to texts. Unfortunately, for long numbers, for example, for codes encrypted on a long key of texts, estimating Shannon entropy requires a huge data sample size. One way around exponential computational complexity is to streamline the chaos of long sequences into sequences with less randomness. The article discusses the implementation of ordering independent data into an almost deterministic function. It is proposed to use data ordering procedures to synthesize another simplified entropy estimate that has quadratic computational complexity. In this case, the scale of entropy values may be close to the scale of Shannon — Hamming entropy values, which has linear computational complexity.

Keywords: Shannon entropy, chaos ordering, quadratic computational complexity, small samples
warning!   Полную версию статьи смотрите на страницах журнала «Защита информации. Инсайд»

Обращайтесь!!!
e-mail:    magazine@inside-zi.ru
тел.:        +7 (921) 958-25-50, +7 (911) 921-68-24


Предыдущая статья    СОДЕРЖАНИЕ НОМЕРА    Следующая статья

| Начало | О журнале | План выхода | Подписка | Интернет-магазин | Реклама | Координаты |

Copyright © 2004-2024 «Защита информации. Инсайд». Все права защищены
webmaster@inside-zi.ru

   Rambler's Top100    Технологии разведки для бизнеса