Тест Тьюринга и критерии "интеллектуальности"
В 1950 году в статье "Вычислительные машины и разум" (Computing machinery and intelligence) выдающийся английский математики и философ Алан Тьюринг предложил тест, чтобы заменить бессмысленный, по его мнению, вопрос "может ли машина мыслить?" на более определённый.
Вместо того, чтобы отвлеченно спорить о критериях, позволяющих отличить живое мыслящее существо от машины, выглядящей как живая и мыслящая, он предложил реализуемый на практике способ установить это.
Судья-человек ограниченное время, например, 5 минут, переписывается в чате (в оригинале – по телеграфу) на естественном языке с двумя собеседниками, один из которых – человек, а другой – компьютер. Если судья за предоставленное время не сможет надёжно определить, кто есть кто, то компьютер прошёл тест.
Предполагается, что каждый из собеседников стремится, чтобы человеком признали его. С целью сделать тест простым и универсальным, переписка сводится к обмену текстовыми сообщениями.
Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения исходя из скорости ответов. (Тьюринг ввел это правило потому, что в его времена компьютеры реагировали гораздо медленнее человека. Сегодня же это правило необходимо, наоборот, потому что они реагируют гораздо быстрее, чем человек).
Идею Тьюринга поддержал Джо Вайзенбаум, написавший в 1966 году первую "беседующую" программу "Элиза". Программа всего в 200 строк лишь повторяла фразы собеседника в форме вопросов и составляла новые фразы из уже использованных в беседе слов. Тем ни менее этого оказалось достаточно, чтобы поразить воображение тысяч людей.
А.Тьюринг считал, что компьютеры в конечном счёте пройдут его тест, т.е. на вопрос: "Может ли машина мыслить?" он отвечал утвердительно, но в будущем времени: "Да, смогут!"
Алан Тьюринг был не только выдающимся ученым, но и настоящим пророком компьютерной эры. Достаточно сказать, что в 1950 году (!!!), когда он писал, что к 2000 году, на столе у миллионов людей будут стоять компьютеры, имеющие оперативную память 1 миллиард бит (около 119 Мб) и оказался в этом абсолютно прав.
Когда он писал это, все компьютеры мира вместе взятые едва ли имели такую память. Он также предсказал, что обучение будет играть важную роль в создании мощных интеллектуальных систем, что сегодня совершенно очевидно для всех специалистов по СИИ. Вот его слова: "Пытаясь имитировать интеллект взрослого человека, мы вынуждены много размышлять о том процессе, в результате которого человеческий мозг достиг своего настоящего состояния… Почему бы нам вместо того, чтобы пытаться создать программу, имитирующую интеллект взрослого человека, не попытаться создать программу, которая имитировала бы интеллект ребенка? Ведь если интеллект ребенка получает соответствующее воспитание, он становится интеллектом взрослого человека… Наш расчет состоит в том, что устройство, ему подобное, может быть легко запрограммировано… Таким образом, мы расчленим нашу проблему на две части: на задачу построения "программы-ребенка" и задачу "воспитания" этой программы".
Именно этот путь и используют практически все системы ИИ. Кроме того, именно на этом пути появляются и другие признаки интеллектуальной деятельности: накопление опыта, адаптация и т. д.
Против теста Тьюринга было выдвинуто несколько возражений.
1. Машина, прошедшая тест, может не быть разумной, а просто следовать какому-то хитроумному набору правил.
На что Тьюринг не без юмора отвечал: "А откуда мы знаем, что человек, который искренне считает, что он мыслит, на самом деле не следует какому-то хитроумному набору правил?"
2. Машина может быть разумной и не умея разговаривать, как человек, ведь и не все люди, которым мы не отказываем в разумности, умеют писать.
Могут быть разработаны варианты теста Тьюринга для неграмотных машин и судей.
3. Если тест Тьюринга и проверяет наличие разума, то он не проверяет сознание
(consciousness) и свободу воли (intentionality), тем самым не улавливая весьма существенных различий между разумными людьми и разумными машинами.
Сегодня уже существуют многочисленные варианты интеллектуальных систем, которые не имеют цели, но имеют критерии поведения: генетические алгоритмы и имитационное моделирование эволюции.
Поведение этих систем выглядит таким образом, как будто они имеют различные цели и добиваются их.
Ежегодно производится соревнование между разговаривающими программами, и наиболее человекоподобной, по мнению судей, присуждается приз Лебнера (Loebner).
Существует также приз для программы, которая, по мнению судей, пройдёт тест Тьюринга. Этот приз ещё ни разу не присуждался.
В заключение отметим, что и сегодня тест Тьюринга не потерял своей фундаментальности и актуальности, более того – приобрел новое звучание в связи с возникновением Internet, общением людей в чатах и на форумах под условными никами и появлением почтовых и других программ-роботов, которые рассылают спам (некорректную навязчивую рекламу и другую невостребованную информацию), взламывают пароли систем и пытаются выступать от имени их зарегистрированных пользователей и совершают другие неправомерные действия.
Таким образом, возникает задачи:
– идентификации пола и других параметров собеседника (на эту возможность применения своего теста указывал и сам Тьюринг);
– выявления писем, написанных и посланных не людьми, а также такого автоматического написания писем, чтобы отличить их от написанных людьми было невозможно. Так что антиспамовый фильтр на электронной почте тоже представляет собой что-то вроде теста Тьюринга.
Не исключено, что скоро подобные проблемы (идентификации: человек или программа) могут возникнуть и в чатах. Что мешает сделать сетевых роботов типа программы "Элиза", но значительно более совершенных (все же сейчас не 1966, а 2004 год), которые будут сами регистрироваться в чатах и форумах участвовать в них с использованием слов и модифицированных предложений других участников? Простейший вариант – дублирование тем с других форумов и перенос их с форума на форум без изменений, что мы уже иногда наблюдаем в Internet (например: сквозная тема про "Чакра-муни").
На практике чтобы на входе системы определить, кто в нее входит, человек или робот, достаточно при входе предъявить для решения простенькую для человека, но требующую огромных вычислительных ресурсов и системы типа неокогнитрона Фукушимы, задачку распознавания случайных наборов символов, представленных в нестандартных начертаниях, масштабах и поворотах на фоне шума (Vladimir Maximenko).Решил, – значит стучится человек-пользователь, не решил, – значит на входе робот, лазающий по мировой сети с неизвестными, чаще всего неблаговидными целями.
Источники информации:
1. Свободная энциклопедия: http://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0
2. Сотник С.Л. Конспект лекций по курсу "Основы проектирования систем искусственного интеллекта": (1997-1998), http://neuroschool.narod.ru/books/sotnik.html.
3. Vladimir Maximenko. Реализация теста Тьюринга на Perl (ввод цифр изображенных на картинке) (perl image auth web cgi): http://www.opennet.ru/base/dev/turing_test.txt.html
4. Captcha (http://en.wikipedia.org/wiki/Captcha) – полностью автоматизированные открытые тесты Тьюринга по разделению людей и машин (Completely Automated Public Turing tests to tell Computers and Humans Apart).
5. Сайт: http://www.opennet.ru/opennews/art.shtml?num=4105