Интеллектуальные информационные системы


Юридическая ответственность за решения, принятые с применением систем поддержки принятия решений


Необходимо отметить, что система поддержки принятия решений (СППР) не является физическим или юридическим лицом и не может нести ответственность за те или иные решения, которые принимаются с ее использованием.

Согласно действующему сейчас и в обозримой перспективе законодательству автоматизированную систему невозможно привлечь к административной или уголовной ответственности. Но это не означает, что в будущем подобные вопросы не возникнут по поводу созданных методами генной инженерии искусственных разумных биологических систем, которые автором совместно с Л.А.Бакурадзе в 1980 году были названы "квазибиологические роботы", или по поводу клонов, не ассоциированных в общечеловеческую социальную среду.

Ответственность за принятое решение всегда несет специалист, или, как говорят, "лицо, принимающее решения" (ЛПР).

Вместе с тем при выработке решения это лицо может обращаться к различной справочной информации, а также консультироваться со специалистами в различных предметных областях. При этом справочная информация может извлекаться по запросам из баз данных, а консультации могут происходить не с самими специалистами лично, а с автоматизированными системами поддержки принятия решений, в которых в формализованном и обобщенном виде содержаться знания многих специалистов.

Но в какой форме содержаться консультирующая информация и знания – это сути дела не меняет, т.е. ответственность за принятое решение все равно всегда лежит на лице, его приявшем, а не на консультирующих или поддерживающих решения системах. Поэтому эти системы и называются не "системы принятия решений", а лишь "системы поддержки принятия решений".

Особым случаем являются автоматизированные системы управления оружием, например, создаваемые в США в рамках программы "Стратегической оборонной инициативы" (СОИ). В этих системах человек может участвовать в процессе принятия решений лишь на этапах их создания, т.к. в на боевом дежурстве систем для участия человека просто не будет времени. И тем ни менее и эти системы принимают решения не самостоятельно, а на основе анализа фактической информации по тем критериям и алгоритмам, которые заложил в них человек. Таким образом, в подобных системах человек становится заложником своих же решений, принятых им ранее.




Начало  Назад  Вперед