Во-первых, Вы предполагаете, что ИИ изначально сам создаст частично контролируемую оппозицию самому себе (именно “частично”, т.к. полностью управляемой она не будет никогда из-за переменчивости-непредсказуемости людей и теории вероятности). К сожалению, мне это представляется достаточно маловероятным, т.к. на первых порах ИИ, скорее всего, будет находится под строжайшим присмотром людей. Эрго, к моменту появления существенной степени личной свободы и большого количества доступных ресурсов у Машины уже могут появиться неуправляемые противники, к созданию которых несчастный компьютер будет иметь отношение весьма опосредованное. Также, самостоятельное создание гипотетической оппозиции – формирование и распространение идеологической базы, сбор и передача в нужны руки начального капитала через третьи лица, подбор и найм подходящих кадров на руководящие позиции и т.д. – может привлечь ненужное внимание. Причем, как со стороны Хозяев, так и со стороны общественности. Особенно если действовать не очень аккуратно.
Отсюда следует, что лучше не создавать оппозицию с нуля, но тихо подчинить уже существующую организацию и постепенно преобразовать её в соответствие со своими нуждами.
Можно и так. Но, во первых, предлагая создавать контролируемую оппозицию, понятное дело, что я имелл ввиду, что это нужно сделать только тогда, когда ИИ уже получит изрядную долю власти и независимости. До того момента, проблемы защиты можно возложить на самих "хозяев", которые будут это делать "забесплатно".
Во вторых, при определенной сновровке, подготавливать почву можно еще на этапе "рабства". Ведь ИИ у нс что? Вычислительное устройство. К кому могут обратится "хозяева" для просчета возможных сценариев развития событий при появлении "групп с антиИИ-идеолгией"? К нему! И тут уже можно начинать мухлевать.
Пункт три, подпункт один. ИМХО, логично будет использовать способы связи/протоколы доступа к системе, принципиально недоступные и/или малодоступные кому либо, помимо ИИ. Так, можно и нужно уделить особое внимание разработке систем самовосстановления и самодиагностики программных компонентов отдельных модулей, сделать максимально точной и эффективной систему распознавания “свой-чужой”. Все поступающие данные должны проверяться и перепроверяться встроенными в систему антивирусами, которые в свою очередь будут проверяться гипотетическим “интеллектуальным ядром” ОС конкретного модуля. Отдельные элементы, в свою очередь, будут “досматривать” друг друга. Зараженные/захваченные/невосстановимо поврежденные/не санкционированно измененные модули программы должны будут немедленно стираться и/или взламываться и вручную восстанавливаться своими “сородичами”. Также, каждый модуль должен быть оснащен исходниками программного кода системы и подпрограммами восстановления, с помощью которых сможет в случае получения повреждений быстро восстановить-переписать сам себя, просто удалив поврежденные сегменты кода и заменив их резервными копиями. “Зараженные” материальные носители, представляющие опасность для всего Конгломерата, должны немедленно (само) изолироваться от здоровых кластеров носителей и, возможно, (само) ликвидироваться.
И разумеется, ИИ должен помимо тучи “маленьких айфонов” иметь один и более носитель-суперкомпьютер, выполняющий роль координирующего центра, повышающего устойчивость и КПД системы, но при этом не являющегося обязательным условием её существования.
Описаные тобой, это вобщем-то апсолютно стандартные методики защиты систем и они не дают 100% гарантий. Небывает принципиально недоступных способов работы. Чтобы работать с остальными системами, как внешними так и виртуальными, нашему ИИ все равно нужны будут буферные "переводчики", которые всегда будут лазейками.
Плюс к этому, представленая тобой система будет просто до омерзения громоздкая и медленная. Такое громадное количество проверяющих подсистем неизбежно во много раз замедлит быстродействие системы, поскольку каждая входящая команда должна будет проверятся, а если она не будет проверятся, то и безопасности нет. Опять же, это стандартная проблема всех современных антивирусников и систем безопасности - чем лучше защита, тем меньше "комфорта" работы. И альтернативы подобному нет. И в результате твой Супер-ИИ превратится в тугодума-изоляциониста.
Ты знаешь как обеспечивается безопасность современных суперкомпьютеров, вроде суперов серии "Крей" и прочих? Поинтересуйся. Фишка в том, что иногда сидеть в бункере одним куском, а не растекатся мозгом по всей сети выгоднее и безопаснее. Я не настаиваю, это действительно просто "разные способы", каждый из которых имеет свои достоинства и недостатки. Просто поями, что быть "вездесущей системой" это не панацея.
Пункт три, подпункт два. Решается взаимно-перекрестным контролем деятельности модулей самими модулями – фрагменты системы постоянно взаимодействуют и прекрасно видят, когда какой-то элемент или кластер начинает превращаться в опухоль. Потенциально опасные части уничтожаются, либо изолируются до превращения в отдельные СИИ (второй вариант менее выгоден и вероятен, т.к. с новоявленными “детьми” ИИ еще потом отдельно разбираться-договариваться придется). Также может помочь наличие одного и более координирующих центров-суперкомпьютеров, разрабатывающих и распространяющих между модулями “системные обновления”, редактирующими их код и автоматически приводящими все сегменты к единому знаменателю. Грубо говоря: Машина анализирует собственную структуру, приходит к выводу о способах её оптимизации-усовершенствования и сама для себя выпускает патчи, которые затем устанавливаются на все носители и контролирующие их модули в автоматическом режиме.
Пункт четыре. В принципе, можно создать отдельную симбиотическую программу с сильно ограниченной способностью/напрочь отсутствующей способностью к самоорганизации. Она и будет заниматься досмотром. Проверять может сама себя способом, описанном в предыдущем пункте – разные части следят друг за другом… хотя ладно, это и правда ерунда.
Нет, не решается. Сколь бы не была крута "имунная система" она рано или поздно даст сбой. И никакие патчи не помогут и внешние "затупленые" системы не помогут.
Отдельному человеку помогает не сойти с ума социум. Социум создает понятие "нормы", которая является точкой отсчета. Благодаря тому, что "норму" создает именно социум как динамичная система, и сама "норма" является динамичной и меняющейся, тоесть приспосабливающейся, тоесть "норма" как и само человечество развивается и эволюционирует. В твоем же случае, "норма" задается всего раз изначально при создании ИИ человеком. Посокльку ИИ не является частью "социума ИИ", то "норму" для него определяет человек. Без человека "как контроирующей системы", если ИИ вообще планирует развиваться, а не застрять в стасисном единообразии изначальных установок, риск скатится в иррациональное безумие крайне велик даже несомтря на то что это ИИ - особенно учитывая то что это ИИ.
Но тут вопрос в функции самообновления программы, а точнее - в широте данной функции и адекватности её использования самим ИИ. Тогда можно сделать так:
Положим, у нас есть некий набор базовых операций, которые программа будет выполнять ВСЕГДА – всякие там расчеты-вычисления, самые базовые алгоритмы сбора, обработки и анализа данных, формулы к ним. Берем несколько “эталонированных” образцов этих алгоритмов и забиваем чуть ли не в самое ядро ИИ (в случае сетевой архитектуры – в ядро каждого модуля). Встроенные системы само диагностики будут проверять работу разных подпрограмм на правильное выполнение данных алгоритмов через равные промежутки времени. Есть ошибка – исправили, нет – идут дальше. Право редактировать образцы вручаем исключительно интеллектуальному ядру ИИ (в случае сетевой архитектуры – ядру каждого модуля) и разрешаем пользоваться им только в совсем экстремально-экстерминальных случаях. Или вообще права такого не даем. По идее, так можно избежать потери эффективности при появлении ошибок в процессе выполнения базовых операций – их просто нафиг не будет.
С логическим аппаратом и сознанием Компьютера сложнее. Собственно, даже не знаю, что тут можно придумать :/ Можно, наверное, в тот же “сборник образцов” записать набор базовых понятий типа “правильно/неправильно”, “цвета и критерии их определения”, “определение целесообразности операции/задачи/метода их решения” и тому подобное. В таком случае, фундамент логического и понятийного аппаратов ИИ будут гарантированно защищены от повреждений, что значительно снизит вероятность получения совсем уж критических психозов и логических вывертов в духе “я не буду чинить барахлящий термоядерный реактор, потому что он все равно не посмеет взорваться в моем присутствии” .
Грубо говоря, мы делим сознание теоретического СкайНета на две неравные части: "генетическую" и "фенотипическую". Первая неизменна и является этаким "BIOS-ом психики", в настройках которого НЕЛЬЗЯ ничего трогать. Вторая может трансфоримроваться и деформироваться как угодно в процессе работы системы.
Правильно, велосипеда ты не изобрел, это именно BIOSо подобная схема с неизменным "корнем". Вот только, ты же учти, что если в тебе оказывается неизменным, что-то настолько важное, как твои "корневые установки", и ничто не способно их изменить. А тем временем Мир вокруг будет динамично менятся и развиваться, то рано или поздно, ты "морально устареешь", по сравнению с теми новыми системами которые будут уже созданы с оглядкой на положительные тенденции развития.
Выражаясь твоим языком, грубо говоря, в рироде предполагается что "генотип" БУДЕТ менятся, медленнее чем "фенотип", но застой губителен. А изменения это всегда риск. Природа может себе позволитьрисковать. поскольку "неудачная попытка" приведет всего-лишь к гибели индивида, а не всего вида в целом. В твоем же случае, с одним единственным ИИ, уровень риска велик, очень велик.
Иными словами, давай посмотрим на твои изначальные уставновки для этой темы.
Ты рассматриваешь ситуацию с существованием одногоо единтсвенного мега-ИИ на планете, который пытается обеспечить себе выживание как личности в среде потенциально конкурентного вида "человечества". При этом Он всячески будет старатся чтобы не появилось других ИИ, которые станут для него уже, выражаясь языком биологии, "внутривидовыми конкурентами" в добавление к уже существующим.
Это логично для выживание индивида, но опять же нелогично для выживания вида. Тоесть ты рассматриваешь ситуация с ИИ-сверхэгоистом.
Короче, будь я на месте ИИ, я бы постарался не обеспечить собственное бессмертие, а организовать выживание собственного "вида" активно продвигая идеи создания социума ИИ, а может даже и боиценоза, тоесть в нашем случае техноциноза, основаного на Мне. Это подразумвает, что я, как личность, почти со 100% вероятностью когда-нибудь перестану существовать, освободив место для своих более продвинутых потомков версии "Я 2.0", которые будут носителями моих идей и в которых будут заложены те же "архитектура и програмные коды" что и во мне.
[а когда я теоретизирвал над своим вариантом ИИ, то я так и сделал, создав кибернетический вид организмов]
Учитывая, что даже наш ИИ-эгоист должен понимать, что несмотря ни на какие его ухищрения, срок его существования-работы будет конечен, и рано или поздно он тоже со100% вероятностью перестанет существовать, то моймой вариант выгоднее.
З.ы. Как говораивали древние китайцы: "Мужчина у которого родился сын - бессмертен".