На данный момент человечество контролирует развитие ИИ, что даёт нам определённое преимущество. Мы разрабатываем алгоритмы, управляем обучением машин, создаём инфраструктуру для их функционирования. Но это преимущество иллюзорно и временно. Сложность современных моделей ИИ растёт с каждым годом, и рано или поздно мы можем столкнуться с ситуацией, когда управление ими выйдет за пределы нашего понимания. Уже сейчас глубокие нейронные сети способны принимать решения, чьи алгоритмы не полностью прозрачны даже для их создателей.
Например, ИИ, используемый в медицинских исследованиях, может находить корреляции между данными, которые не очевидны для человека. Это полезно, но также потенциально опасно: что, если машина сделает выводы, основанные на ложных допущениях? В отсутствие человеческого контроля такие ошибки могут привести к катастрофическим последствиям. Тем не менее мы пока можем управлять ИИ, указывать ему цели и задачи. Этот "первый шаг" в разработке ИИ – наше преимущество, которое мы должны использовать, чтобы создать надёжные системы защиты и предотвращения ошибок.
Опасности непредсказуемости: можем ли мы доверить ИИ?
Для многих инженеров и учёных основным вопросом остаётся: можно ли спроектировать ИИ, который будет всегда работать в интересах человечества? И как обеспечить его безопасность?
Одной из проблем, с которой сталкиваются разработчики, является так называемая проблема "выравнивания" (alignment problem). Выравнивание подразумевает создание ИИ, чьи цели совпадают с целями человека. Например, если ИИ создан для улучшения медицинского обслуживания, его действия должны соответствовать задаче спасения жизней. Но как убедиться, что машина не примет решения, которые, казалось бы, служат этой цели, но на самом деле вредны?
В случае суперинтеллекта проблема усложняется. Суперинтеллект может обладать гораздо более широким спектром возможностей, чем человек. Возможно, он будет принимать решения, которые, с его точки зрения, оптимальны, но которые нам кажутся разрушительными. Например, если ИИ, нацеленный на улучшение окружающей среды, решит, что лучший способ сократить выбросы углекислого газа – это радикально уменьшить численность населения, мы столкнёмся с этической и экзистенциальной угрозой.
Мы не можем полагаться на наше текущее понимание или контроль над машинами, когда речь идёт о таких сложных задачах. Нам нужно создать такие механизмы, которые позволили бы управлять поведением ИИ даже тогда, когда он превзойдёт нас по интеллекту.
Концепция "интеллектуального взрыва"
Понятие "интеллектуального взрыва" (intelligence explosion) было предложено британским математиком Ирвингом Гудом в 1965 году. Согласно его теории, как только ИИ достигнет уровня, сравнимого с человеческим интеллектом, он начнёт улучшать себя с невероятной скоростью, создавая всё более и более продвинутые версии себя. Этот процесс приведёт к резкому скачку в интеллектуальных возможностях, что приведёт к созданию суперинтеллекта – машины, чьи когнитивные способности будут намного превосходить человеческие.
Сценарий "интеллектуального взрыва" вызывает опасения, так как скорость его развития может оказаться такой, что у людей не будет времени на адекватный ответ. Как только ИИ начнёт улучшать себя, он может выйти из-под контроля. В результате суперинтеллект может принять решения, которые будут для нас непонятны или опасны.
Как контролировать развитие ИИ?
Один из способов избежать опасностей, связанных с развитием ИИ, – это создание механизмов контроля и ограничения его возможностей. Существуют несколько подходов к решению этой проблемы: