Приложение 1 Концептуальная формализация базовых элементов информационных правоотношений в инфосфере
1.
2. Меры количества информации
Мера Хартли. Согласно апостериорному подходу[152] Р. Хартли (1928 г.) количество информации об объекте (ситуации S) равно разности априорной и апостериорной энтропий, характеризующих неопределенности ситуации до и после получения некоторых сведений D:
I Hapr Haps,
где Hapr = H(S) — значение априорной энтропии ситуации S;
Haps= H(S|D) — значение апостериорной условной энтропии ситуации S при условии получения некоторых сведений D;
H = Iog2N, N — количество возможных вариантов (исходов).
Пример 1. При бросании игральной кости — шестигранного кубика (N = 6) априорная безусловная энтропия Hapr = H(S) (неопределенность) ситуации S будет равна:
Hapr = H(S) = Iog2N = log26.
Апостериорная условная энтропия Haps= H(S|D) (неопределённость) ситуации S при условии получения сведения D о конкретной выпавшей грани кубика будет равна:
Haps= H(SID) = Iog2N = Iog2I = 0 (т.е. апостериорная неопределённость отсутствует).
Тогда количество информации, полученное в результате эксперимента:
I = Hapr — Haps = log26 — log21 = 2,6 — 0 ~ 2,6 двед[153] или бит[154].
Пример 2. При представлении некоторых сведений D (из определённого источника) о местонахождении шахматной фигуры в верхней правой части (примерно 16 клеток) шахматной доски (всего 64 клетки) полученное количество информации можно рассчитать следующим образом:
I = Hapr — Haps = log264 — log216 = 6 — 4 = 2 двед или бит.
То есть исходная неопределенность ситуации S уменьшилась, но не до нуля. В случае если сведения D содержат точное местоположение шахматной фигуры, например, в верхнем правом углу, то полученное количество информации будет равно:
I = Hapr - Haps = log264 - Iog2I = 6 - 0 = 6 двед или бит.
Мера Шеннона. Мера Р. Хартли является частным случаем (при наличии равновероятных исходов N, т.е. при p, = HN) широко используемой меры К. Шеннона (1948 г.), учитывающей вероятностиp,, i = 1, Nисходов N:
N
H = - S p,*log2pІ,
i=1
где E — знак суммы сомножителейp,xlog2p,, i = 1, ..., N.
Данная мера более показательна, так как учитывает различие между характером имеющихся исходов N с помощью использования понятия вероятности pi, имеющего чисто статистический характер.
Единица измерения количества информации Шеннона. Для введения единицы измерения «1 бит» (двед) К. Шеннон ввёл понятие «двоичного канала связи»: передаются значения 0 или 1, принимаются также 0 или 1, но из- за возможных канальных помех приём не однозначно соответствует передаче (см. рисунок).
0
1
«Двоичный канал связи» К. Шеннона
Тогда возможно дать следующее определение: 1 бит (двед) — это единица измерения количества информации, содержащейся в сообщении, выраженном одним из двух равновероятных взаимоисключающих (альтернативных) состояний. [155]
• симметричная криптография с закрытым (секретным) ключом (50-е гг.
XX в. — 70-е гг. XX в.);
• асимметричная криптография с открытыми (публичными) ключами (70-е
гг. XX в. — н/вр.).
Начало первого периода связано с применением так называемого «шифра Цезаря», суть которого состояла в том, что в зашифрованных сообщениях императора каждая буква X латинского алфавита (26 букв и пробел) заменялась на третью букву справа по формуле шифра (см.
табл. П1.1):Y = (X + 3)mod27,
где mod27 — операция нелинейного (циклического) вычитания по модулю 27 (чтобы буквы в зашифрованном сообщении тоже соответствовали латинскому алфавиту).
Таблица П1.1
Латинская алфавитно-ци(
іровая матрица
| A | B | C | D | E | F | G | H | I | J | K | L | M | N |
| 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| O | P | Q | R | S | T | U | V | W | X | Y | Z | |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 |
Пример. Для передачи условного сообщения с текстом: ”Game is over” в уме выполняются следующие операции побуквенного сложения и вычитания по mod27 (см. табл. П1.2):
Таблица П1.2
Шифрование сообщения по методу Цезаря
| G | A | M | E | _ | I | S | _ | O | V | E | R |
| 7+3 | 1+3 | 13+3 | 5+3 | (27+3)mod27 | 9+3 | 19+3 | (27+3)mod27 | 15+3 | 22+3 | 5+3 | 18+3 |
| J | D | P | H | C | L | V | C | R | Y | H | U |
В результате получается зашифрованное сообщение, содержащее текст: ”Jdphclvcryhu”, которое расшифровывается в обратном порядке.
Поскольку все языки имеют ярко выраженное частное распределение (например, после пробела в латинском языке чаще всего используется буква E), то текст, зашифрованный таким образом, легко (при условии его достаточной «длины») расшифровать на основе его частотного анализа и замены букв (например, C на пробел, H на E и др.), как, например, это сделал герой рассказа
О’Генри «Золотой жук», заменяя в пиратской криптопиктограмме на буквы английского языка знаки в виде пляшущих человечков в зависимости от частоты их использования.
Все дальнейшие усовершенствования данного «шифра Цезаря» (путём введения в формулу шифра десятичных при X коэффициентов или замены коэффициента сдвига, равного 3, на другие значения[156]; замены буквы X не на одну, а на несколько букв для «выравнивания» частотного распределения и др.) не намного повысили криптостойкость данного типа шифров.
Второй исторический период криптографии связан с именем американского учёного К. Шеннона и характеризуется использованием так называемых «труднообратимых» функций, т.е. нелинейных. Например, функций возведения в m-ю степень численного номера каждой буквы сообщения (Y = XmodN). Не зная значения m (ключ), криптоаналитику приходилось путём последовательного трудоёмкого перебора извлекать корни различных степеней из чисел перехваченного зашифрованного сообщения (X = VkY modN, к = 2, 3, 4,...).
В этот период возникла организационно-правовая проблема тайного распределения множества M = n(n — 1) «симметричных» секретных ключей между n абонентами практически полносвязных (по принципу «каждый с каждым») развивающихся информационных сетей. Для решения этой проблемы американскими инженерами Диффи и Хеллманом была предложена современная система математически связанной пары «асимметричных» ключей абонента, один из которых K — открытый (объявляется всем абонентам и может передаваться по открытым информационным каналам), а другой K*- тайный, хранимый абонентом в секрете.
Третий современный этап — это, главным образом, этап асимметричной криптографии, при которой необходимое количество ключей абонентов полносвязной (или любой другой) сети равно 2n, что намного меньше n(n — 1).
При этом и на передающей, и на приёмной сторонах используется однотипная операция возведения в степень в модульной арифметике, причём на передающей стороне степень является значением открытого ключа K абонен- та-получателя, а на приёмной — значением его закрытого ключа K*:
Y = X K mod N, X= YK* mod N.
Еще по теме Приложение 1 Концептуальная формализация базовых элементов информационных правоотношений в инфосфере:
- Приложение 3 Концептуальные вопросы совершенствования изучения информационных правоотношений в инфосфере
- Продуктивная классификация информационных правоотношений в инфосфере и декомпозиция предмета информационного права
- Субъектно-объектный состав информационных правоотношений в инфосфере
- Глава 2. ОБЪЕКТЫ ИНФОРМАЦИОННЫХ ПРАВООТНОШЕНИЙ В ИНФОСФЕРЕ
- Глава 4. КОНЦЕПЦИИ И ПРОБЛЕМЫ СОВЕРШЕНСТВОВАНИЯ ИНФОРМАЦИОННЫХ ПРАВООТНОШЕНИЙ В ИНФОСФЕРЕ
- Логическая классификация информационных отношений в инфосфере и направления обеспечения информационной безопасности
- Архитектура инфосферы и классификация информационных технологий
- Глава 3. ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИНФОРМАЦИОННЫХ ОТНОШЕНИЙ В ИНФОСФЕРЕ
- Состав (элементы) правоотношения
- 8. Элементы структуры гражданского правоотношения
- § 5. Иностранный элемент в инвестиционных правоотношениях
- Глава 2 ИНВЕСТИЦИОННЫЕ ПРАВООТНОШЕНИЯ, ОСЛОЖНЁННЫЕ ИНОСТРАННЫМ ЭЛЕМЕНТОМ
- Систематизация информационных правоотношений в области средств массовой информации
- § 3. Преимущественные права как элементы содержания корпоративных правоотношений
- Традиционно в составе любого правоотношения выделяют три элемента: субъекты, объект (предмет) и содержание.
- 19.3. Состав правоотношения: субъекты правоотношений; объекты правоотношений; содержание правоотношений