Интеллектуальные информационные системы


Системное обобщение классической формулы Харкевича, как количественная мера знаний


Это обобщение представляет большой интерес, в связи с тем, что А.Харкевич впервые ввел в теорию информации понятие цели.

Он считал, что количество информации, сообщенное объекту, можно измерять по изменению вероятности достижения цели этим объектом за счет использования им этой информации.

Рассмотрим таблицу 12, в которой столбцы соответствуют будущим состояниям АОУ (целевым и нежелательным), а строки факторам, характеризующим объект управления, управляющую систему и окружающую среду.

Таблица 12 – МАТРИЦА АБСОЛЮТНЫХ ЧАСТОТ

Классическая формула А.Харкевича имеет вид:

(3. 19)

где:

– W  – количество классов (мощность множества будущих состояний объекта управления)

– M   – максимальный уровень сложности смешанных состояний объекта управления;

– индекс i обозначает фактор: 1£ i £ M;

– индекс j обозначает класс: 1£ j £ W;

– Pij – вероятность достижения объектом управления j-й цели при условии сообщения ему i-й информации;

– Pj – вероятность самопроизвольного достижения объектом управления j-й цели.

Ниже глобальные параметры модели W и M в выражениях для I опускаются, т.к. они являются константами для конкретной математической модели СК-анализа.

Однако: А.Харкевич в своем выражении для количества информации не ввел зависимости количества информации, от мощности пространства будущих состояний объекта управления, в т.ч. от количества его целевых состояний. Вместе с тем, один из возможных вариантов учета количества будущих состояний объекта управления обеспечивается классической и системной формулами Хартли (3.1) и (3.9); выражение  (3.19) при подстановке в него реальных численных значений вероятностей Pij и Pj не дает количества информации в битах; для выражения (3.19) не выполняется принцип соответствия, считающийся обязательным для обобщающих теорий. Возможно, в этом состоит одна из причин слабого взаимодействия между классической теорией информации Шеннона и семантической теорией информации.

Чтобы снять эти вопросы, приближенно выразим вероятности Pij, Pi и Pj через частоты:




Начало  Назад  Вперед



Книжный магазин