Skip to content

Instantly share code, notes, and snippets.

@orsinium
Created May 4, 2017 09:48
Show Gist options
  • Save orsinium/b2ca3711f90ae7422c0817971e3c6096 to your computer and use it in GitHub Desktop.
Save orsinium/b2ca3711f90ae7422c0817971e3c6096 to your computer and use it in GitHub Desktop.
Защита от ИИ

Технологии и методы контроля над искусственным интеллектом

В наше время искусственный интеллект (ИИ) выполняет множество задач почти во всех сферах деятельности: от компьютерных игр до управления космическим аппаратом. Становится всё сложнее отличить результат работы машины от человеческой деятельности. ИИ активно совершенствуется, приобретает всё больше навыков, однако он до сих пор служит лишь инструментом, небольшим помощником человека в повседневной деятельности. Но что будет, когда машина по интеллекту займет позицию, равную, а то и превосходящую, уровень развития человечества? Давайте разберемся.

Для начала стоит ввести классификацию ИИ в соответствии с уровнем его развития.

  • ANI - ИИ, значительно ниже человеческого. Именно с ним мы имеем дело в современном мире. Например, это Siri, Cortana и прочие интеллектуальные помощники.
  • AGI - ИИ, примерно равный человеческому. До его реализации ещё далеко, однако именно его стремятся разработать, именно о нём снимают фантастические фильмы.
  • ASI - ИИ, значительно превосходящий человеческий. Эксперты указывают следующие сроки перехода ИИ на новый уровень развития: 2040 год — появление AGI, плюс 20 лет перехода от AGI к ASI. Столь краткие сроки вызваны соответствием темпов развития ИИ закону Мура: всё новые знания помогают ему получать и обрабатывать информацию намного быстрее, поэтому его уровень развития возрастает в геометрической прогрессии.

И вот когда появляется ASI, мы сталкиваемся с серьезной опасностью. Такой разум способен на что угодно: от уничтожения человечества до открытия бессмертия. И мы не в силах будем предсказать, какой он сделает выбор. Несомненно, такая перспектива пугает. Однако при изобретении AGI, единственным способом остановить его рост будет уничтожение, на что создатели данного ИИ вряд ли пойдут. И здесь перед нами встает задача максимально обезопасить человечество от возможных последствий.

Хорошим решением кажется наделение ИИ чувствами. В частности, любовью к человечеству. Однако вряд ли из этого выйдет что-то хорошее: генерация чувств и эмоций сильно нагрузит процессор машины, может стать причиной ненависти к людям (как определенным, так и всем в целом) или внезапной вспышки гнева и, что самое важное, сделает поступки ИИ абсолютно непредсказуемыми и неконтролируемыми.

Наиболее оптимальным решением проблемы является наделение ASI некими моральными принципами, которые сделают его верным помощником и проводником человечества. Самые первые и известные правила, воплощающие данную идею, сформулировал писатель-фантаст Айзек Азимов. Его "законы робототехники" звучат следующим образом:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам. Казалось бы, проблема решена, однако эти законы не лишены недостатков. Об этом писал как сам Азимов, так и многие исследователи после. Иногда машина должна переступать через данные законы, когда того требует ситуация, но если мы сделаем их нестрогими, они потеряют всякий смысл: ASI с легкостью обойдет любые препятствия, если в них будет хотя бы незначительная лазейка.

Возможно, законы робототехники стоит переформулировать и/или расширить. Но как? Практически невозможно выразить этические правила и нормы в виде строгих логических законов: их довольно много, они сложно формулируются и зачастую конфликтуют между собой. А если построить их методами нечеткой логики, это станет уязвимостью в безопасности, которой, как уже было сказано выше, ASI без труда сможет воспользоваться.

В качестве альтернативы, если не получается ограничить ИИ морально, стоит задуматься о том, чтобы изолировать его от внешнего мира: закрыть в отдельной комнате, изолировать от сетей и какого-либо излучения извне. Но, в любом случае, сохранится как минимум один канал коммуникации с ASI, без которого его создание не имеет смысла. Люди захотят, чтобы он был их помощником: давал советы, отвечал на вопросы и т.д. А это также является уязвимостью, известной как "AI-box experiment".

Как решение, можно реализовать любые из вышеописанных ограничений, а неизбежные уязвимости снабдить сигнатурами, которые в случае выхода ИИ из-под контроля активируют систему самоуничтожения или изоляции ставшего опасным ASI. Этот подход, в отличии от предыдущих, не требует обязательного наличия какой-либо уязвимости, однако реализовать его необходимо максимально эффективно. Это должна быть идеальная система, исключающая всякую возможность ошибки, она должна всегда на шаг опережать ИИ в его возможных попытках выйти из-под контроля. К тому же, как уже было сказано, создатели вряд ли решатся на его полное уничтожение, а опасность может представлять даже малая часть ИИ, т.к. в ней он может заложить некую резервную копию, заново воссоздающую весь его прогресс за пару секунд.

При формировании ядра ИИ необходимо кроме ограничений также продумать и его цели. Именно из-за неправильных целей, для осуществления которых ASI может потребоваться избавиться от препятствия в виде человечества. Однако это не столь простая задача, как может показаться. Люди заведомо поставят перед ним проблему, решение которой им неизвестно, поэтому также неизвестен и способ поиска ответа, выбранный ИИ.

Таким образом, уже в ближайшем будущем человечество ждет открытие искусственного интеллекта, значительно превосходящего по уровню развития человеческий. Мы стоим на пороге великого открытия, которое может как сделать нас бессмертными, так и уничтожить. Такая власть пугает, поэтому возникает естественное желание взять её под контроль. Отсюда следует появление в будущем специалистов по защите от ИИ, однако удастся ли достигнуть каких-либо значительных успехов в данном направлении, остается только гадать.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment