Набагато ефективніше враховуються статистичні зв'язки між елементами зображення за методом пророкування. Тут використовують ту обставину, що, знаючи сусідні попередні елементи зображення, можна значно краще передбачити наступні, ніж якщо сусідні елементи не були б відомі.
Нехай вже відома група з v - 1 елементів зображення. Позначимо цю групу через Di, а умовну ймовірність того, що примикає до цієї групи v-й елемент має (якщо відомо значення всіх v - 1 елементів групи) яскравість j, через pDi(j). Значення j може бути від 1 до m, де m - число можливих градацій яскравості. Слід підкреслити, що ймовірність того, що цей елемент має j-ї градації яскравості, коли нічого не відомо про сусідніх елементах, р (j) може різко відрізнятися від pDi(j). Так, для зображень такого типу, як на рис. 31, а, р (0) = р (1) = 0.5, тобто р (j) - 0.5 (j = 0; 1), чорні і білі елементи в середньому зустрічаються однаково часто. Якщо взяти v = 4 і в якості груп Dj вибирати трійки сусідніх елементів, розташованих так, як на рис. 32, а (елементи 1, 2, 3), то, наприклад, за умови, що всі елементи 1,2,3 - чорні, четвертий який пророкують елемент виявиться приблизно в 43 рази частіше чорним, ніж білим. Це видно з табл. 4, де першому випадку відповідає група з чотирьох елементів В1й, а другого - 2?13. Тільки при відсутності статистичних зв'язків ймовірність pDi(j) тотожно дорівнює р (j).
Рис. 32. Приклади (а-е) вибору груп попередніх елементів. Який пророкують елемент позначений пунктиром.
У відповідності з основним визначенням для інформації кількість інформації, що міститься у повідомленні, що v-й елемент має j-ю градацію, якщо вже відома група з v - 1 елементів, позначена буде - log pDi(j). Для того, щоб знайти відповідне наближення до ентропії зображення, тобто кількість інформації на один елемент при обліку статистичних зв'язків між групою з v - 1 елементів і v-м елементом, залишається знайти середнє значення - log pDi(j). Для цього треба знати ще ймовірність появи групи j),. з v - 1 елементів, що супроводжується v-m елементом, що мають значення j. Позначимо цю ймовірність р (Di, j). Вона обчислюється із
де р (Di) - ймовірність, з якою може зустрітися в зображенні група Df з v - 1 елементів. Середнє значення - log pDi(j), згідно з відомим правилом знаходження середнього значення величини, сумою добутків значень цієї величини на ймовірність цих значень для всіх можливих значень i та j. Це позначається наступним рівністю
Легко помітити, що при v = 1 обидва наближення до ентропії тотожно рівні, F1 = G1. Шеннон (Shannon a. Weaver, 1949) показав, що наближення до ентропії Fв прагне до H із зростанням v швидше, ніж Gv, так що завжди Fv≤Gv. Взагалі кажучи, Н є межею Fv, при нескінченному збільшенні числа v. Однак якщо статистичне вплив, що розповсюджується більше, ніж на v елементів, відсутня, іншими словами, якщо умовна ймовірність появи наступного елемента за умови знання v -1 елементів не змінюється при ознайомленні з будь-якими іншими елементами, то F4 = H вже при кінцевому значенні v.
Велике значення має формула дозволяє обчислити Fy, якщо відомі Gv,
Fv = vGv- (v-1); (39)
Тому виявляється достатнім для отримання хорошого наближення до ентропії виміряти Gv для порівняно невеликих значень v.
Шрейбер (Shreiber, 1956) визначив третє, а Лебедєв (1958) - четверте наближення до ентропії для кількох типів зображень. На рис. 33, побудованому за даними Лебедєва, показана характерна залежність наближення до ентропії від номера v. В якості нульового наближення вказано значення Нмакс = log28 = 3 дв. од. Значення Fl (v=1), рівне G1 являє собою ентропію одновимірного розподілу, отриману за формулою (35). Друге наближення відповідає F2 (v=2) - прогнозу подальшого елемента за попереднім (рис. 32, б). Це наближення являє собою середнє значення логарифма ймовірності градації яскравості даного елемента (2 на рис. 32, б), коли вже відома яскравість попереднього (1 на тому ж малюнку). Третє наближення F3 (v=3) відповідає прогнозу третього елемента по двом сусіднім, располоягенным, як 1 і 2 на рис. 32, ст. Нарешті, четверте наближення відповідає прогнозу четвертого елемента з трьох суміжних (рис. 32, а). Залежність Fv від v, отримана для інших сюжетів іншими авторами, має такий же характер (Powers a. Staras, 1957).
Насамперед слід зазначити різке зміна Fv при переході від v=1 v=2. Знання попереднього елемента істотним чином впливає на ймовірність подальшого. Можна ефективно передбачати наступний елемент, знаючи попередній. Досить хороше передбачення полягає в тому, що яскравість подальшого елемента буде така ж, як у попереднього. Значна частина інформації про зображення як би зосереджена в переходах.
Це ілюструється табл. 5 (Лебедєв, 1958). Там показано розподіл ймовірностей pi (j) (точніше, частот), того, що наступний елемент має градацію j, якщо попередній мав градацію i. У випадках, коли величина pi (j) була менше 10-4 клітинку таблиці залишали незаповненою. Видно, що найбільші, що різко відрізняються від інших значення pi (j) при заданому i досягаються, коли j-i, тобто яскравість наступного елемента дорівнює яскравості попереднього.
Інший важливий висновок полягає в тому, що, коли вже відомий один попередній елемент, знання ще одного або двох елементів практично мало впливає на ймовірність значення яскравості передбачуваної елемента. F3 і F4 несуттєво відрізняються від F2. Таким чином, особливо важливо врахувати статистичні зв'язки між даними і сусіднім елементами.
Статистика зображень в наближень, коли n>4, майже не вивчена. Однак можна припускати, що при подальшому збільшенні n величина Fn буде повільно зменшуватися по мірі того, як будуть враховуватися статистичні зв'язки між все більш і більш віддаленими елементами зорових образів, що відображають глибокі взаємозв'язки в об'єктах зовнішнього світу.
Подібним чином можуть бути розглянуті статистичні зв'язки між елементами зображення в часі. При спостереженні природних сюжетів з рухом (природних, в тому сенсі, що не враховуються переміщення штучних, створених людиною об'єктів, таких, як сучасні засоби транспорту тощо) статистичні зв'язки стають особливо помітними при інтервалах часу порядку 0.1 сек. і менше. Значення цього порядку величини вже обговорювалось у зв'язку з тимчасовим накопиченням.
Зокрема, дослідження статистичних зв'язків між сусідніми телевізійними і кінокадрами в межах одного сюжету і при виключенні сцен з наїздом і панорамированием показали, що в середньому лише кілька сотих часток від загального числа елементів восьми,- десятиградационного зображення змінюють свою яскравість від кадру до кадру на одну градацію і більше (Арбузов, Берлін, Цуккерман, 1959). Ефективне передбачення подальшого елемента (через зазначений часовий інтервал) полягає в тому, що яскравість наступного у часі елемента буде така ж, як у попереднього.
Наявні в нашому розпорядженні дані про статистику зображень дозволяють оцінити інформацію, що міститься у зображеннях, лише в першому наближенні. Насамперед передбачалося, що одержувач зображення робить вибір з певного набору можливих зображень, що мають задане число елементів, кожен з яких може приймати будь-яку з заданого числа градації яскравості. При цьому кількість інформації, що припадає в середньому на елемент зображення, виявлялося значно менше (в кілька разів для широкого класу зображень, а для деяких більш вузьких класів - більш ніж на порядок), ніж та інформаційна ємність, яка припадає на один елемент при звичайному поданні зображень. Такі оцінки більш точні техніки для передачі зображень. У разі, коли одержувачем зображень є зорова система, оцінка інформації, що міститься в зображенні, суттєво завищена. Дійсно, ми не врахували, що число розрізняються оком градацій яскравості залежить від розмірів розглянутих об'єктів. Це число більше для великих однорідних ділянок і менше для меж контурів і дрібних деталей). Вже з цієї причини не можна вважати «алфавіт» зорової системи заданим максимально помітним числом градацій яскравості.
Ми не врахували також глибоких статистичних зв'язків, існуючих усередині зорових образів. Якщо для периферії зорового аналізатора (для сітківки) в якійсь мірі правильно вважати, що алфавіт визначається помітними градаціями яскравості, то вже для вищих відділів зорового аналізатора це виявляється невірним. Мозок виробляє вибір в першу чергу з великих сукупностей елементів - з набору зорових образів. До цього ми повернемося в останній главі і покажемо, що інформація, насправді міститься в зображенні за умови, коли одержувачем є мозок, значно менше, ніж та, яка могла б бути оцінена за статистикою невеликих сусідніх груп елементів.
І все ж дослідження статистичних властивостей зображень у розглянутому наближенні корисно для розуміння функціональної організації зорового аналізатора. Надалі, в зв'язку з обговоренням проблеми статистичного кодування зображень, ми переконаємося в тому, що ці статистичні властивості добре враховані в зоровій системі, чудовим чином пристосованої до отримання інформації з зображення.
Рис. 33. Наближення до ентропії для деяких типових зображень, проквантованных на 8 градацій.
1 - детальне зображення (стадіон, трибуни, загальний план); 2 - портрет (крупний план).