Описываемая система позволяет выполнять следующие функции:
□ задание информации о задаче в диалоге с пользователем;
□ построение множества оптимальных вариантов в соответствии с методом t-упорядочения;
□ реализация метода ограничений, позволяющего пользователю выбрать одну альтернативу из t-оптимального множества;
□ импорт из базы данных;
□ импорт данных из текстового файла;
□ проверка корректности ординальной информации;
□ создание отчета.
Вопрос 2. Юридическая ответственность при использовании СППР.
Необходимо отметить, что система поддержки принятия решений (СППР) не является физическим или юридическим лицом и не может нести ответственность за те или иные решения, которые принимаются с ее использованием.
Согласно действующему сейчас и в обозримой перспективе законодательству автоматизированную систему невозможно привлечь к административной или уголовной ответственности. Но это не означает, что в будущем подобные вопросы не возникнут по поводу созданных методами генной инженерии искусственных разумных биологических систем, которые Л.А.Бакурадзе в 1980 году были названы "квазибиологические роботы", или по поводу клонов, не ассоциированных в общечеловеческую социальную среду.
Ответственность за принятое решение всегда несет специалист, или, как говорят, "лицо, принимающее решения" (ЛПР).
Вместе с тем при выработке решения это лицо может обращаться к различной справочной информации, а также консультироваться со специалистами в различных предметных областях. При этом справочная информация может извлекаться по запросам из баз данных, а консультации могут происходить не с самими специалистами лично, а с автоматизированными системами поддержки принятия решений, в которых в формализованном и обобщенном виде содержаться знания многих специалистов.
Но в какой форме содержаться консультирующая информация и знания – это сути дела не меняет, т.е. ответственность за принятое решение все равно всегда лежит на лице, его приявшем, а не на консультирующих или поддерживающих решения системах. Поэтому эти системы и называются не "системы принятия решений", а лишь "системы поддержки принятия решений".
Особым случаем являются автоматизированные системы управления оружием, например, создаваемые в США в рамках программы "Стратегической оборонной инициативы" (СОИ). В этих системах человек может участвовать в процессе принятия решений лишь на этапах их создания, т.к. в на боевом дежурстве систем для участия человека просто не будет времени. И тем ни менее и эти системы принимают решения не самостоятельно, а на основе анализа фактической информации по тем критериям и алгоритмам, которые заложил в них человек. Таким образом, в подобных системах человек становится заложником своих же решений, принятых им ранее.