Оглядываясь назад, трудно понять, как можно было настолько недооценить весь объем проблем, связанных с достижением этой цели. Сегодня понятно, что сама идея о возможности создать искусственный интеллект за два с половиной десятилетия опередила свое время на несколько поколений. С течением времени количество трудностей увеличивалось. В работе над созданием мыслящей машины на одну скромную победу приходились сотни поражений. Становилась очевидной истинная глубина и сложность разума людей и животных. Даже простейшие задачи, например определить местонахождение чашки и поднять ее, оказались весьма нетривиальными. Именно те аспекты нашего разума, которые мы по большей части воспринимаем как должное, машине оказалось скопировать труднее всего.

Как же все-таки получилось, что столько исключительно умных людей недооценили истинный характер проблемы? По большей части причина крылась в простой эпистемологической истине: мы не знаем о том, чего мы не знаем. Эпистемология – это ветвь философии, изучающая характер и объем знания. Она изучает то, что мы знаем, как мы это знаем, правдиво ли то, что мы знаем и, наконец, каковы пределы знания. В случае с искусственным интеллектом еще слишком многое не было открыто в области естественного разума и сознания. Лишь после того, как человечество узнало намного больше о мозге, причем за счет использования сложных технологий обработки данных и точных методов сканирования, нам удалось достичь того этапа развития науки, на котором появление продвинутого машинного интеллекта стало казаться неизбежным.

Основы искусственного интеллекта были заложены куда раньше, чем многие считают. В эпоху Просвещения в XVII и XVIII веках такие философы, как Декарт, Гоббс и Лейбниц, исследовали природу рационального мышления и пытались формализовать свое понимание явления. Они рассматривали разум как систематический процесс сродни математическим правилам. Лейбниц даже исследовал возможность существования универсального языка рациональных суждений, благодаря которому они приобрели структуру и четкость, как теоремы в геометрии>4. Позже эти идеи станут вдохновением и путеводной звездой для зарождающейся сферы искусственного интеллекта.

В XIX и XX веках прогресс в области математической логики в сочетании с делающей первые шаги электроникой привел к появлению машинной логики, а впоследствии – к появлению целого ряда языков программирования. Кроме того, исследования в области неврологии, проведенные в XX веке, не так давно определили, что мозг сам по себе – это сеть клеток, обменивающихся сигналами. Сложно удержаться от их сравнения с современными электрическими и опорными коммуникационными сетями.

В период Второй мировой войны вычислительные технологии поднялись на более высокий уровень, и в конечном итоге возникла уверенность в неизбежном появлении искусственного интеллекта (ИИ). Военные нужды и проблема на первый взгляд не поддающихся дешифровке сообщений, используемых Германией и Японией, обусловили гигантские шаги в области, которая стала одним из направлений информатики>5. Группа дешифровщиков из Блетчли-Парк, Англия, в составе которой был и Алан Тьюринг, годами работала над решением проблемы>6. Возможно, без их достижений война длилась бы куда дольше и союзники могли потерпеть поражение. После Второй мировой войны компьютерные науки и теория находились на том этапе, когда некоторые ученые и исследователи считали, что человечеству вскоре удастся создать настоящий машинный разум.

Учитывая обстоятельства, легче понять, почему новая область информатики истолковала эту идею настолько неверно. Машинный «разум» выиграл войну – сначала это почти удалось Германии, но в конечном итоге победили союзники. Без технологии немецкая машина «Энигма» не могла бы шифровать и расшифровывать тысячи, казалось бы, не поддающихся расшифровке сообщений. Без еще более сложной технологии (усовершенствованной за счет человеческого разума в качестве основного компонента) союзники не взломали бы разработанное по последнему слову науки и техники тех времен и практически абсолютно криптографически стойкое шифрование.