Интеллектуальные информационные системы

         

Свойства эластичности


Рассмотрим некоторые свойства эластичности, которые, как мы заметили, удивительным образом полностью или частично совпадают со свойствами логарифма (таблица 21).

Таблица 21 – СВОЙСТВА ЭЛАСТИЧНОСТИ И ЛОГАРИФМА

ЭЛАСТИЧНОСТЬ

ЛОГАРИФМ

Примечание

1

Эластичность взаимно-обратной функции взаимно-обратна:



Логарифм взаимно-обратной функции равен той же функции с обратным знаком:

Совпадает по модулю (с точностью до знака)

2

Эластичность произведения двух функций одного аргумента равна сумме эластичностей функций:

Логарифм произведения двух функций одного аргумента равна сумме логарифмов функций:

Полностью совпадает

3

Эластичность частного двух функций одного аргумента равна разности эластичностей функций:

Логарифм частного двух функций одного аргумента равна разности логарифмов функций:

Полностью совпадает

4

Эластичность показательной функции
пропорциональна показателю степени:

Логарифм показательной функции
пропорционален показателю степени:

Полностью совпадает

5

Область значений эластичности:

 < E <

Область значений логарифма:

 < ln <
.

Полностью совпадает

Необходимо отметить, что ряд других свойств эластичности, таких как эластичность суммы функций, эластичность линейной функции и др., не совпадают со свойствами логарифма. Итак, учитывая свойства эластичности 2-5 (таблица 21) мы видим, что большинство свойств эластичности совпадают со свойствами логарифмической функции. Это позволяет высказать гипотезу, что свойства эластичности Ex(y) схожи со свойствами количества информации I, т.к. во все выражения для количества информации Хартли-Найквиста-Больцмана, Шеннона и Харкевича входит логарифмическая функция.

Какая же из этих мер информации в наибольшей степени соответствует понятию эластичности? Ключевым в решении этого вопроса является свойство 5 (таблица 21):

– область значений мер Хартли-Найквиста-Больцмана и Шеннона изменяется от 0 до

;


– область значений меры Харкевича, как и эластичности, изменяется от
 до
, как и эластичности.
Однако классическая мера семантической целесообразности информации мера Харкевича не удовлетворяет принципу соответствия с мерой Хартли в детерминистском случае, поэтому автором данной работы в [64] предложена системная мера целесообразности информации (СМЦИ) – Iij(W,M). В отличие от эластичности Ex(y), которая определена для однозначной функции одного аргумента, Iij(W,M) определена для многозначной функции многих аргументов.
Таким образом, системная мера целесообразности информации, предложенная в настоящем исследовании, имеет математические свойства сходные со свойствами эластичности многозначной функции многих аргументов.

Содержание раздела