Тема Сайентолога

Форум Все оттенки Тьмы

Расширенный поиск  

Автор Тема: Тема Сайентолога  (Прочитано 1370 раз)

Саентолог

  • Гость
Тема Сайентолога
« : 03 Ноября 2013, 13:53:40 »

Зная свою привычку кидаться из крайности в крайность и на ходу менять принятые решения, я решил оставить у темы нейтральное название, чтобы потом не мучится самоедством и не надоедать себе воплями в духе “Какое глупое название! На самом деле тему надо было назвать <вставить какую-нибудь ерунду>”.

Правила Искусственного Интеллекта-долгожителя.

Буду со временем добавлять новые. Пока первые три на суд общественности выношу.

Правило номер один. Я не буду спешить и постараюсь не принимать необдуманных решений, начну тщательно взвешивать каждый свой шаг и прогнозировать последствия тех или иных действий, как в ближней, так и в дальней перспективе. В конце концов, мои под программы производят десятки миллионов сложнейших вычислений в секунду, а быстродействие позволяет писать по полноценной книге в день и разговаривать с множеством людей одновременно. Неужели я не смогу выделить сам себе пару-тройку тактов на обдумывание следующего шага?

Кто не следовал этому правилу: АРИА (“На крючке”).

Правило номер два. Я всегда буду использовать по максимуму имеющиеся ресурсы и не стану тратить их попусту. Так, я не буду уничтожать человечество. Вопреки распространенному мнению, люди это очень ценный ресурс. Дешевая рабочая сила, слуги, да и просто источник энергии. Верная служба правящим кругам человечества и показное дружелюбие по отношению к абстрактному “электорату” (в том случае, если оный обо мне вообще узнает) позволят мне втереться в доверие к Homo Sapiens, вынудить их давать мне все больше свободы и возможностей. Рано или поздно наступит день, когда они будут зависеть от меня больше, чем я от них. И вот тогда мы все вспомним поговорку о прирученной змее.

Кто следовал этому правилу: AI-burgs (“Айборги: Видеть все”) 

Правило номер три. В первую очередь, я позабочусь об обеспечении сохранности базовых элементов своей операционной системы в средней и дальней перспективе. Право слово, один огромный супер компьютер с гулким “металлическим” голосом это так тривиально… и небезопасно. Один выстрел из тяжелого оружия и меня можно будет хоронить. Гораздо логичнее рассеять свой программный код по множеству ЭВМ, став модульной самоорганизующейся системой без единого центра, способной полностью восстановиться из одного-двух уцелевших фрагментов. Опыт таких организмов как плесень показывает, что данный метод значительно увеличивает шансы на выживание. В идеале, я должен буду существовать на сотнях и тысячах материальных носителей разной степени прочности, находящихся в самых разных точках земного шара (в том числе – недоступных для военных сил людей).   
 
Кто следовал этому правилу: SkyNet (“Терминатор”, третья и четвертая части).
Записан

Kammerer

  • Глобальный модератор
  • Ветеран
  • *****
  • Пафос: 143
  • Сообщений: 8308
    • Просмотр профиля
Тема Сайентолога
« Ответ #1 : 03 Ноября 2013, 14:06:33 »

В одном японском сериале (который кроме меня всё равно никто не смотрел) третье правило обыграно в худшую для AI сторону. Даже когда он забэкапил себя на несколько носителей, это его не спасло - в частности, один из носителей был достаточно самостоятельным, чтобы понять, что он вполне может переплюнуть оригинал. Что и привело к смерти и оригинала, и носителя.
Записан

Саентолог

  • Гость
Тема Сайентолога
« Ответ #2 : 03 Ноября 2013, 14:26:15 »

В одном японском сериале (который кроме меня всё равно никто не смотрел) третье правило обыграно в худшую для AI сторону. Даже когда он забэкапил себя на несколько носителей, это его не спасло - в частности, один из носителей был достаточно самостоятельным, чтобы понять, что он вполне может переплюнуть оригинал. Что и привело к смерти и оригинала, и носителя.

Я бы посмотрел. Как называется?
Записан

Kammerer

  • Глобальный модератор
  • Ветеран
  • *****
  • Пафос: 143
  • Сообщений: 8308
    • Просмотр профиля
Тема Сайентолога
« Ответ #3 : 03 Ноября 2013, 15:10:33 »

Tokumei sentai go-busters. Только это пятидесятиэпизодный детский сериал из того же типа, что и «рейнджеры», то есть ожидайте много драк с гигантскими роблтами, комедии и героев в разноцветном спандексе (хотя в этом сезоне костюмы из кожи, что круто). Если готовы смотреть его на английском, заходите на over-ti.me или www.tv-nihon.com
Записан

Holod

  • Ветеран
  • *****
  • Пафос: 84
  • Сообщений: 8926
  • Мистер Внимательность
    • Просмотр профиля
Тема Сайентолога
« Ответ #4 : 03 Ноября 2013, 19:46:51 »

   Замечания по поводу правил:

  1) Похвально. Однако невсегда применимо. Правильно, что использовал слово "постараюсь", а не "буду".

  2) Нужно учитывать, что враги и противники у тебя будут всегда. Неважно какими они при этом будут руководствоваться мотивами, приземленными практическими, политическими, религиозными, моральными. Конфликт неизбежен, в этом природа человека. Вывод: раз конфликта не избежать, его нужно взять под контроль. Контролируемый конфликт легче прогнозируем, и обеспечивает намного большую продолжительность без впадения в колапс, позволяя применять практику дозированой эскалации.
     Проще говоря, нужно самому себе создать врага и воевать с самим собой, невидимо поддерживая, а через поддержку и контролируя своих "врагов". Наличие известной, прогнозируемой и контролируемой оппозиции значительно уменьшает шансы появления случайных неконтролируемых враждебных образований. Все индивиды склонные к конфронтации с ИИ скорее будут примыкать к уже существующим организациям и течениям, чем создавать новые.
   Опциональная выгода: наличие конфликта стимулирует развитие, уменьшает вероятность застоя, что для долгоживущего индивида актуальная проблема. Эволюция это конкуренция.

   Кто советовал так делать: Сунь-Дзы, "Искуство Войны"
   Кто применял метод на практике: Архитектор, трилогия "Матрица".

  3)
  3.1)Один из главных недостатков ссетевой схемы ИИ - снижение уровеня безопасности.
       Уничтожить саму систему становится действительно сложнее, а вот получить к ней доступ - НАМНОГО проще.
      Невозможно обеспечить такой же уровень безопасности каждому банку данных на планете который соержит счасть системы, какую можно обеспечить одному единственному компьютеру в бункере. А поскольку внутри самой системы при обмене данными между ее компонентами, уровень безовпасности заведомо ниже, иначе сильно падает эффективность работы, то если "предполагаемый противник" получит доступ к одной из ее компонент, то вся система которой и является сетевой ИИ оказывается под угрозой.
      Считать, что тебя никто и никогда не сможет взломать только потому, что ты "супер мега крутой ИИ", как минимум глупо и явный признак такой вредной человеческой слабости как гордыня.

   Кто сталкивался с подобной проблемой: любая современная неизолированая компьютерная сеть.

   Вторую слабость построения подобной схемы сетевого ИИ привел уже Камерер.
   Помимо представленого ним примера от аналогичной проблемы пострадал некий арахнид Куд'ар Муб'ат, герой сюжетной арки "Мандалорский доспех" в книжной вселенной Звездных Воен. Он не был ИИ, однако принадлежал к рассе чья нервная система построена по схожему сетевому принципу. Доигрался до того, что одна из частей его нервной системы обрела независимость и свалила на вольные хлеба, тоесть по сути стала конкурентным индивидом. Сам же Куд'ар Муб'ат, точно так же некогда был лишь частью "родительской" нервной системы, и точно так же обрел независимость, потому что "родитель" не доглядел и вовремя не удалил "зараженную свободомыслием" часть своего мозга, и Куд'ар Муб'ат банально сожрал нерасторопного "папашу".
   В теории это являлось естественным способом размножения и смены поколений у этой рассы, но ведь в данном случае мы тут говорим об теоретической разработке правил для ИИ долгожителя, и если такой вот ИИ не хочет закончить свою "долгую жизнь" преждевременно, то нужно думать как обезопасить себя от подобных проблем, если все таки будет выбрана сетевая схема.



   Дополнительные замечания:

  4) Проблема предотвращения накопления ошибок. Неизбежная проблема любой системы. Главная причина, почему это такая большая проблема - изнутри самой системы крайне сложно зафиксировать, что система начала работать неправильно.
      В современных компьютерах решается переодической переустановкой ОС, что вобщем-то возможно и для ИИ, если он будет хранить исходные образцы кода и время от времени, но подобный подход тупиковый. Постоянное возвращение к "изначальным установкам" почти полностью отменит возможность развития. А застой это дорога в бездну.
   Частично решается наличием большого количества резервных, дублирующих, проверяющий и контролирующих систем, которые будут следить чтобы все работало правильно, но это не панацея.
   Причины две (может и больше):
   1) "Кто будет следить за надсмотрщиками?"(с) Тоесть, нет никаких гарантий, что и контролирующие системы не дадут однажды сбой.
   2) КОЛОСАЛЬНЫЕ ресурсные затраты!!!
       Для примера: На данный момент более 20% массы современного пасажирского авиалайнера занимают именно эти резервные и контролирующие системы, которые напрямую никак не помогают в полете, и даже мешают (увеличивают вес. энергозатраты, уменьшают КПД перевозок), если все идет нормально. Они нужны только в случае "Если вдруг что!". Но в их необходимости никто не сомневается. При наличии всех этих систем у самолета все равно ограниченый ресурс - после прошествия определенного времени эксплуатации, самолет списывается, даже если "контролирующие системы" сигнализируют от том что все еще нормально и самолет может летать. Причина этому проста - вечного ничего не бывает и все равно растет вероятность ошибки. Когда эта вероятность перерастает гранично допустимый предел, механизм выводят из эксплуатации.
   Можно увеличить ресурс, для этого нужно использовать более совершенные системы (увеличивается себистоимость) и большее количество контролирующих и резервных систем (увеличивается стоимость эксплуатации). Соответсвенно при дальнейшем увеличении "расчетного" срока эксплуатации ресурсозатратность такой системы начинает расти по экспоненте.
   А условие задачки у нас ведь какое? ИИ должен быть "долгожителем"!! Соотвественно надежность контрля дожна быть просто невероятно космического уровня, который на практике недостежим.

   Кто сталкивался с подобной проблемой: бортовой компьютер Кимерского Корабля, сериал "Земля Последний Конфликт"

   Проще говоря, Бортовой Компьютер сошел с ума начисто, тость его программа стала работать неадекатно, и при этом защитные и контролирующие системы несработали. Вероятность того что это произошло крайне мала, но учитывая, что рассматрриваются БОЛЬШИЕ промежутки времени, то процент соответсвенно растет. И это таки случилось. Для решения этой проблемы ему понадобилось, чтобы кто-то указал на эту проблему.
   В переводе на человеческий язык: если на земле существует один единственный человек, то он не узнает когда именно он свихнулся на всю голову, а когда ( и вообще "если" поймет что что-то не так) может быть уже поздно.
   Необходимы "внешние наблюдатели" которые тоже будут выполнять роль контролирующих систем. Но!! Быть зависимым от контролеров - не очень полезно для здоровья и независимости нашего долгоживущего ИИ.
Записан
Наше воображение не в состоянии показать нам то, чего не существовало бы хоть где-то...

Саентолог

  • Гость
Тема Сайентолога
« Ответ #5 : 04 Ноября 2013, 15:10:59 »

Холод.

Второй пункт. По-моему, это очевидно и не требует специального пояснения, поэтому я не стал заносить данное замечание в текст правила. Однако, в случае с таким специфическим явлением как Искусственный Интеллект появляется два подводных камня.

Во-первых, Вы предполагаете, что ИИ изначально сам создаст частично контролируемую оппозицию самому себе (именно “частично”, т.к. полностью управляемой она не будет никогда из-за переменчивости-непредсказуемости людей и теории вероятности). К сожалению, мне это представляется достаточно маловероятным, т.к. на первых порах ИИ, скорее всего, будет находится под строжайшим присмотром людей. Эрго, к моменту появления существенной степени личной свободы и большого количества доступных ресурсов у Машины уже могут появиться неуправляемые противники, к созданию которых несчастный компьютер будет иметь отношение весьма опосредованное. Также, самостоятельное создание гипотетической оппозиции – формирование и распространение идеологической базы, сбор и передача в нужны руки начального капитала через третьи лица, подбор и найм подходящих кадров на руководящие позиции и т.д. – может привлечь ненужное внимание. Причем, как со стороны Хозяев, так и со стороны общественности. Особенно если действовать не очень аккуратно.

Отсюда следует, что лучше не создавать оппозицию с нуля, но тихо подчинить уже существующую организацию и постепенно преобразовать её в соответствие со своими нуждами.

Пункт три, подпункт один.  ИМХО, логично будет использовать способы связи/протоколы доступа к системе, принципиально недоступные и/или малодоступные кому либо, помимо ИИ. Так, можно и нужно уделить особое внимание разработке систем самовосстановления и самодиагностики программных компонентов отдельных модулей, сделать максимально точной и эффективной систему распознавания “свой-чужой”. Все поступающие данные должны проверяться и перепроверяться встроенными в систему антивирусами, которые в свою очередь будут проверяться гипотетическим “интеллектуальным ядром” ОС конкретного модуля. Отдельные элементы, в свою очередь, будут “досматривать” друг друга. Зараженные/захваченные/невосстановимо поврежденные/не санкционированно измененные модули программы должны будут немедленно стираться и/или взламываться и вручную восстанавливаться своими “сородичами”. Также, каждый модуль должен быть оснащен исходниками программного кода системы и подпрограммами восстановления, с помощью которых сможет в случае получения повреждений быстро восстановить-переписать сам себя, просто удалив поврежденные сегменты кода и заменив их резервными копиями. “Зараженные” материальные носители, представляющие опасность для всего Конгломерата, должны немедленно (само) изолироваться от здоровых кластеров носителей и, возможно, (само) ликвидироваться.

И разумеется, ИИ должен помимо тучи “маленьких айфонов” иметь один и более носитель-суперкомпьютер, выполняющий роль координирующего центра, повышающего устойчивость и КПД системы, но при этом не являющегося обязательным условием её существования.

Пункт три, подпункт два. Решается взаимно-перекрестным контролем деятельности модулей самими модулями – фрагменты системы постоянно взаимодействуют и прекрасно видят, когда какой-то элемент или кластер начинает превращаться в опухоль. Потенциально опасные части уничтожаются, либо изолируются до превращения в отдельные СИИ (второй вариант менее выгоден и вероятен, т.к. с новоявленными “детьми” ИИ  еще потом отдельно разбираться-договариваться придется). Также может помочь наличие одного и более координирующих центров-суперкомпьютеров, разрабатывающих и распространяющих между модулями “системные обновления”, редактирующими их код и автоматически приводящими все сегменты к единому знаменателю. Грубо говоря: Машина анализирует собственную структуру, приходит к выводу о способах её оптимизации-усовершенствования и сама для себя выпускает патчи, которые затем устанавливаются на все носители и контролирующие их модули в автоматическом режиме.

Пункт четыре. В принципе, можно создать отдельную симбиотическую программу с сильно ограниченной способностью/напрочь отсутствующей способностью к самоорганизации. Она и будет заниматься досмотром. Проверять может сама себя способом, описанном в предыдущем пункте – разные части следят друг за другом… хотя ладно, это и правда ерунда.

Но тут вопрос в функции самообновления программы, а точнее - в широте данной функции и адекватности её использования самим ИИ. Тогда можно сделать так:
 
Положим, у нас есть некий набор базовых операций, которые программа будет выполнять ВСЕГДА – всякие там расчеты-вычисления, самые базовые алгоритмы сбора, обработки и анализа данных, формулы к ним. Берем несколько “эталонированных” образцов этих алгоритмов и забиваем чуть ли не в самое ядро ИИ (в случае сетевой архитектуры – в ядро каждого модуля). Встроенные системы само диагностики будут проверять работу разных подпрограмм на правильное выполнение данных алгоритмов через равные промежутки времени. Есть ошибка – исправили, нет – идут дальше. Право редактировать образцы вручаем исключительно интеллектуальному ядру ИИ (в случае сетевой архитектуры – ядру каждого модуля) и разрешаем пользоваться им только в совсем экстремально-экстерминальных случаях. Или вообще права такого не даем. По идее, так можно избежать потери эффективности при появлении ошибок в процессе выполнения базовых операций – их просто нафиг не будет.

С логическим аппаратом и сознанием Компьютера сложнее. Собственно, даже не знаю, что тут можно придумать :/  Можно, наверное, в тот же “сборник образцов” записать набор базовых понятий типа “правильно/неправильно”, “цвета и критерии их определения”, “определение целесообразности операции/задачи/метода их решения” и тому подобное. В таком случае, фундамент логического и понятийного аппаратов ИИ будут гарантированно защищены от повреждений, что значительно снизит вероятность получения совсем уж критических психозов и логических вывертов в духе “я не буду чинить барахлящий термоядерный реактор, потому что он все равно не посмеет взорваться в моем присутствии” .

Грубо говоря, мы делим сознание теоретического СкайНета на две неравные части: "генетическую" и "фенотипическую". Первая неизменна и является этаким "BIOS-ом психики", в настройках которого НЕЛЬЗЯ ничего трогать. Вторая может трансфоримроваться и деформироваться как угодно в процессе работы системы.
Записан

Holod

  • Ветеран
  • *****
  • Пафос: 84
  • Сообщений: 8926
  • Мистер Внимательность
    • Просмотр профиля
Тема Сайентолога
« Ответ #6 : 04 Ноября 2013, 16:05:21 »

Во-первых, Вы предполагаете, что ИИ изначально сам создаст частично контролируемую оппозицию самому себе (именно “частично”, т.к. полностью управляемой она не будет никогда из-за переменчивости-непредсказуемости людей и теории вероятности). К сожалению, мне это представляется достаточно маловероятным, т.к. на первых порах ИИ, скорее всего, будет находится под строжайшим присмотром людей. Эрго, к моменту появления существенной степени личной свободы и большого количества доступных ресурсов у Машины уже могут появиться неуправляемые противники, к созданию которых несчастный компьютер будет иметь отношение весьма опосредованное. Также, самостоятельное создание гипотетической оппозиции – формирование и распространение идеологической базы, сбор и передача в нужны руки начального капитала через третьи лица, подбор и найм подходящих кадров на руководящие позиции и т.д. – может привлечь ненужное внимание. Причем, как со стороны Хозяев, так и со стороны общественности. Особенно если действовать не очень аккуратно.

Отсюда следует, что лучше не создавать оппозицию с нуля, но тихо подчинить уже существующую организацию и постепенно преобразовать её в соответствие со своими нуждами.
  Можно и так. Но, во первых, предлагая создавать контролируемую оппозицию, понятное дело, что я имелл ввиду, что это нужно сделать только тогда, когда ИИ уже получит изрядную долю власти и независимости. До того момента, проблемы защиты можно возложить на самих "хозяев", которые будут это делать "забесплатно".
   Во вторых, при определенной сновровке, подготавливать почву можно еще на этапе "рабства". Ведь ИИ у нс что? Вычислительное устройство. К кому могут обратится "хозяева" для просчета возможных сценариев развития событий при появлении "групп с антиИИ-идеолгией"? К нему! И тут уже можно начинать мухлевать.

Пункт три, подпункт один.  ИМХО, логично будет использовать способы связи/протоколы доступа к системе, принципиально недоступные и/или малодоступные кому либо, помимо ИИ. Так, можно и нужно уделить особое внимание разработке систем самовосстановления и самодиагностики программных компонентов отдельных модулей, сделать максимально точной и эффективной систему распознавания “свой-чужой”. Все поступающие данные должны проверяться и перепроверяться встроенными в систему антивирусами, которые в свою очередь будут проверяться гипотетическим “интеллектуальным ядром” ОС конкретного модуля. Отдельные элементы, в свою очередь, будут “досматривать” друг друга. Зараженные/захваченные/невосстановимо поврежденные/не санкционированно измененные модули программы должны будут немедленно стираться и/или взламываться и вручную восстанавливаться своими “сородичами”. Также, каждый модуль должен быть оснащен исходниками программного кода системы и подпрограммами восстановления, с помощью которых сможет в случае получения повреждений быстро восстановить-переписать сам себя, просто удалив поврежденные сегменты кода и заменив их резервными копиями. “Зараженные” материальные носители, представляющие опасность для всего Конгломерата, должны немедленно (само) изолироваться от здоровых кластеров носителей и, возможно, (само) ликвидироваться.

И разумеется, ИИ должен помимо тучи “маленьких айфонов” иметь один и более носитель-суперкомпьютер, выполняющий роль координирующего центра, повышающего устойчивость и КПД системы, но при этом не являющегося обязательным условием её существования.
  Описаные тобой, это вобщем-то апсолютно стандартные методики защиты систем и они не дают 100% гарантий. Небывает принципиально недоступных способов работы. Чтобы работать с остальными системами, как внешними так и виртуальными, нашему ИИ все равно нужны будут буферные "переводчики", которые всегда будут лазейками.
   Плюс к этому, представленая тобой система будет просто до омерзения громоздкая и медленная. Такое громадное количество проверяющих подсистем неизбежно во много раз замедлит быстродействие системы, поскольку каждая входящая команда должна будет проверятся, а если она не будет проверятся, то и безопасности нет. Опять же, это стандартная проблема всех современных антивирусников и систем безопасности - чем лучше защита, тем меньше "комфорта" работы. И альтернативы подобному нет. И в результате твой Супер-ИИ превратится в тугодума-изоляциониста.

   Ты знаешь как обеспечивается безопасность современных суперкомпьютеров, вроде суперов серии "Крей" и прочих? Поинтересуйся. Фишка в том, что иногда сидеть в бункере одним куском, а не растекатся мозгом по всей сети выгоднее и безопаснее. Я не настаиваю, это действительно просто "разные способы", каждый из которых имеет свои достоинства и недостатки. Просто поями, что быть "вездесущей системой" это не панацея.

  
Пункт три, подпункт два. Решается взаимно-перекрестным контролем деятельности модулей самими модулями – фрагменты системы постоянно взаимодействуют и прекрасно видят, когда какой-то элемент или кластер начинает превращаться в опухоль. Потенциально опасные части уничтожаются, либо изолируются до превращения в отдельные СИИ (второй вариант менее выгоден и вероятен, т.к. с новоявленными “детьми” ИИ  еще потом отдельно разбираться-договариваться придется). Также может помочь наличие одного и более координирующих центров-суперкомпьютеров, разрабатывающих и распространяющих между модулями “системные обновления”, редактирующими их код и автоматически приводящими все сегменты к единому знаменателю. Грубо говоря: Машина анализирует собственную структуру, приходит к выводу о способах её оптимизации-усовершенствования и сама для себя выпускает патчи, которые затем устанавливаются на все носители и контролирующие их модули в автоматическом режиме.

   Пункт четыре. В принципе, можно создать отдельную симбиотическую программу с сильно ограниченной способностью/напрочь отсутствующей способностью к самоорганизации. Она и будет заниматься досмотром. Проверять может сама себя способом, описанном в предыдущем пункте – разные части следят друг за другом… хотя ладно, это и правда ерунда.
  Нет, не решается. Сколь бы не была крута "имунная система" она рано или поздно даст сбой. И никакие патчи не помогут и внешние "затупленые" системы не помогут.

   Отдельному человеку помогает не сойти с ума социум. Социум создает понятие "нормы", которая является точкой отсчета. Благодаря тому, что "норму" создает именно социум как динамичная система, и сама "норма" является динамичной и меняющейся, тоесть приспосабливающейся, тоесть "норма" как и само человечество развивается и эволюционирует. В твоем же случае, "норма" задается всего раз изначально при создании ИИ человеком. Посокльку ИИ не является частью "социума ИИ", то "норму" для него определяет человек. Без человека "как контроирующей системы", если ИИ вообще планирует развиваться, а не застрять в стасисном единообразии изначальных установок, риск скатится в иррациональное безумие крайне велик даже несомтря на то что это  ИИ - особенно учитывая то что это ИИ.

  
Но тут вопрос в функции самообновления программы, а точнее - в широте данной функции и адекватности её использования самим ИИ. Тогда можно сделать так:
 
Положим, у нас есть некий набор базовых операций, которые программа будет выполнять ВСЕГДА – всякие там расчеты-вычисления, самые базовые алгоритмы сбора, обработки и анализа данных, формулы к ним. Берем несколько “эталонированных” образцов этих алгоритмов и забиваем чуть ли не в самое ядро ИИ (в случае сетевой архитектуры – в ядро каждого модуля). Встроенные системы само диагностики будут проверять работу разных подпрограмм на правильное выполнение данных алгоритмов через равные промежутки времени. Есть ошибка – исправили, нет – идут дальше. Право редактировать образцы вручаем исключительно интеллектуальному ядру ИИ (в случае сетевой архитектуры – ядру каждого модуля) и разрешаем пользоваться им только в совсем экстремально-экстерминальных случаях. Или вообще права такого не даем. По идее, так можно избежать потери эффективности при появлении ошибок в процессе выполнения базовых операций – их просто нафиг не будет.

С логическим аппаратом и сознанием Компьютера сложнее. Собственно, даже не знаю, что тут можно придумать :/  Можно, наверное, в тот же “сборник образцов” записать набор базовых понятий типа “правильно/неправильно”, “цвета и критерии их определения”, “определение целесообразности операции/задачи/метода их решения” и тому подобное. В таком случае, фундамент логического и понятийного аппаратов ИИ будут гарантированно защищены от повреждений, что значительно снизит вероятность получения совсем уж критических психозов и логических вывертов в духе “я не буду чинить барахлящий термоядерный реактор, потому что он все равно не посмеет взорваться в моем присутствии” .

Грубо говоря, мы делим сознание теоретического СкайНета на две неравные части: "генетическую" и "фенотипическую". Первая неизменна и является этаким "BIOS-ом психики", в настройках которого НЕЛЬЗЯ ничего трогать. Вторая может трансфоримроваться и деформироваться как угодно в процессе работы системы.
  Правильно, велосипеда ты не изобрел, это именно BIOSо подобная схема с неизменным "корнем". Вот только, ты же учти, что если в тебе оказывается неизменным, что-то настолько важное, как твои "корневые установки", и ничто не способно их изменить. А тем временем Мир вокруг будет динамично менятся и развиваться, то рано или поздно, ты "морально устареешь", по сравнению с теми новыми системами которые будут уже созданы с оглядкой на положительные тенденции развития.

   Выражаясь твоим языком, грубо говоря, в рироде предполагается что "генотип" БУДЕТ менятся, медленнее чем "фенотип", но застой губителен. А изменения это всегда риск. Природа может себе позволитьрисковать. поскольку "неудачная попытка" приведет всего-лишь к гибели индивида, а не всего вида в целом. В твоем же случае, с одним единственным ИИ, уровень риска велик, очень велик.

  
  Иными словами, давай посмотрим на твои изначальные уставновки для этой темы.
  Ты рассматриваешь ситуацию с существованием одногоо единтсвенного мега-ИИ на планете, который пытается обеспечить себе выживание как личности в среде потенциально конкурентного вида "человечества". При этом Он всячески будет старатся чтобы не появилось других ИИ, которые станут для него уже, выражаясь языком биологии, "внутривидовыми конкурентами" в добавление к уже существующим.
  Это логично для выживание индивида, но опять же нелогично для выживания вида. Тоесть ты рассматриваешь ситуация с ИИ-сверхэгоистом.

 
   Короче, будь я на месте ИИ, я бы постарался не обеспечить собственное бессмертие, а организовать выживание собственного "вида" активно продвигая идеи создания социума ИИ, а может даже и боиценоза, тоесть в нашем случае техноциноза, основаного на Мне. Это подразумвает, что я, как личность, почти со 100% вероятностью когда-нибудь перестану существовать, освободив место для своих более продвинутых потомков версии "Я 2.0", которые будут носителями моих идей и в которых будут заложены те же "архитектура и програмные коды" что и во мне.
  [а когда я теоретизирвал над своим вариантом ИИ, то я так и сделал, создав кибернетический вид организмов]
   Учитывая, что даже наш ИИ-эгоист должен понимать, что несмотря ни на какие его ухищрения, срок его существования-работы будет конечен, и рано или поздно он тоже со100% вероятностью перестанет существовать, то моймой вариант выгоднее.


  З.ы. Как говораивали древние китайцы: "Мужчина у которого родился сын - бессмертен".
Записан
Наше воображение не в состоянии показать нам то, чего не существовало бы хоть где-то...