textarchive.ru

Главная > Сборник статей


Мы движемся в этот новый век безо всякого плана, без управления, без тормозов. Спустились ли мы уже по этой тропе слишком далеко для того, чтобы можно было изменить курс? Я не верю в это, но мы так и не пробуем, а последняя возможность взять ситуацию под контроль - отказобезопасная точка - быстро приближается. Мы имеем наших первых любимцев-роботов, а также доступные для приобретения генно-инженерные методики, и наша наноразмерная техника быстро развивается. Несмотря на то, что развитие этих технологий происходит через множество шагов, последний шаг в испытании технологии вовсе не обязательно является крупным и трудным - как это случилось в Манхэттенском проекте и при испытании "Тринити". Прорыв к необузданному саморазмножению в робототехнике, генной инженерии или в нанотехнологии может произойти внезапно, возобновив удивление, которое мы чувствовали, когда узнали о клонировании млекопитающих.

И всё же я верю, что мы и впрямь имеем прочную и твёрдую основу для надежды. Наши попытки иметь дело с оружиями массового уничтожения в прежнем столетии предоставляют нам на рассмотрение блестящий пример отказа: односторонний, без предварительных условий, отказ Соединённых Штатов от разработки биологического оружия. Этот отказ произошёл из осознания того, что хотя создание этого страшного оружия и потребовало бы огромных усилий, но после этого его можно было бы легко скопировать и оно могло бы попасть в руки плутовских наций или террористических групп.

Очевидный вывод - что мы создали бы для себя дополнительные угрозы от погони за этими вооружениями и что мы были бы в большей безопасности, если бы мы за ними не гнались. Мы воплотили наш отказ от биологического и химического оружия в Конвенции Биологического Оружия 1972-го года и в Конвенции Химического Оружия 1993-го года 1.

Что же до сохраняющейся значительной угрозы от ядерного оружия, с которой мы живём вот уже на протяжении более чем 50-и лет, то недавнее отклонение сенатом США Договора по Всеобъемлющему Запрету Ядерных Испытаний делает очевидным, что с политической точки зрения отказ от ядерного оружия не будет лёгким. Тем не менее, с окончанием Холодной Войны мы имеем замечательную возможность предотвратить многополюсную гонку вооружений. Основываясь на биологической и химической конвенциях, успешное упразднение ядерного оружия могло бы нам помочь установить обычай отказа от опасных технологий. (Действительно, избавившись от всех, за исключением 100-а ядерных зарядов, распределённых по всему свету, которые приблизительно составляют совокупную разрушительную силу Второй Мировой Войны, -что является значительно более лёгкой задачей - мы могли бы исключить эту угрозу вымирания2 .)

Проверка выполнения отказа будет трудной, но не неразрешимой задачей. Нам повезло: мы уже проделали множество соответствующей работы в связи с Конвенцией Биологического Оружия и другими договорами. Нашей главной задачей будет применить это к технологиям, которые по природе гораздо более коммерческие, чем военные. Существенной нуждой тут является прозрачность, так как трудность контроля прямо пропорциональна трудности отличения запрещённой деятельности от законной.

Я искренне верю, что ситуация в 1945-м году была проще, чем та, с которой мы сталкиваемся теперь: ядерные технологии можно было приемлемо разделить на коммерческое и военное применение, а дозиметрическому контролю помогала природа атомных испытаний и лёгкость измерения радиоактивности. Исследования по военным применениям могли выполняться в государственных лабораториях, таких, как Лос-Аламос, с сохранением результатов в тайне как можно дольше.

ГНР-технологии не имеют ясного подразделения на коммерческое и военное применение; учитывая их рыночные возможности, трудно предположить, что ими будут заниматься только в государственных лабораториях. При их широком коммерческом распространении принудительный отказ потребует режима контроля, подобного режиму контроля для биологического оружия, но на беспрецедентном масштабе. Это неизбежно поднимет напряжённость между нашей личной приватностью и желанием частной информации с одной стороны и потребностью в контроле для того, чтобы защитить нас всех - с другой. Мы, несомненно, встретим мощное сопротивление этой потере приватности и свободы действия.

Проверку отказа от определённых ГНР-технологий придётся проводить как в кибернетическом пространстве, так и на уровне физической аппаратуры. Решающая трудность будет в том, чтобы сделать необходимую прозрачность в мире частной информации приемлемой, предположительно через предоставление новых форм защиты интеллектуальной собственности.

Выполнение контроля потребует также, чтобы учёные и инженеры приняли строгий кодекс нравственного поведения, похожий на клятву Гиппократа, и чтобы они имели мужество выступать во весь голос, как необходимо, даже если это им дорого станет. Это стало бы ответом на призыв - через 50 лет после Хиросимы - нобелевского лауреата Ганса Бете1, одного из наиболее старших живущих участников Манхэттенского проекта, чтобы все учёные "прекратили и воздерживались от работ, создающих, развивающих, совершенствующих и производящих ядерное оружие и другие оружия потенциального массового уничтожения"2. В 21-м веке это потребует бдительности и персональной ответственности от тех, кто будет работать как над ЯБХ-, так и над ГНР-технологиями, для того, чтобы избежать реализации оружий массового уничтожения и знаний массового уничтожения.

Торо сказал также, что мы будем "богатыми соразмерно количеству тех вещей, которые мы можем позволить себе не трогать"3. Все мы стремимся к счастью, однако представляется дельным вопрос о том, нужно ли нам подвергаться такому большому риску полного уничтожения для того, чтобы получить ещё больше знаний и ещё больше вещей; здравый смысл говорит, что нашим материальным нуждам есть предел - и что определённые знания являются слишком опасными и от них лучше отказаться.

Не следует нам также гнаться за почти бессмертием без учёта цены, без учёта соразмерного роста риска вымирания. Бессмертие, может быть даже и подлинное, не является, конечно, единственно возможной утопической мечтой.

Недавно мне посчастливилось встретиться с выдающимся писателем и учёным Жаком Аттали, чья книга "Lignes d'horizons" ("Золотой век", в английском переводе)4 помогла вдохновить подход "Java" и "Jini" к грядущему веку распределённых вычислений, как это было ранее описано в данном журнале. В своей новой книге "Общины"5 Аттали описывает, как наши мечты об утопии изменились за время:

"На заре общества люди считали свой путь на Земле не более чем лабиринтом страдания, в конце которого стояла дверь, ведущая, через их смерть, в общество богов и в Вечность. С евреями, а потом и греками, некоторые люди отважились освободить себя от богословских запросов и стали мечтать о совершенном Городе, где будет процветать Свобода. Другие, отметившие развитие рыночного общества, понимали, что свобода одних повлечёт за собой отчуждение других, и они стремились к Равенству."

Жак помог мне понять, как эти три различные утопические цели напряжённо существуют сегодня в нашем обществе. Он идёт дальше и описывает четвёртую утопию, "Братство", чьим основанием является альтруизм. Только Братство связывает личное счастье с счастьем других, давая залог самоподдержки.

Это прояснило для меня мой вопрос касательно мечты Курцвейла. Технологическое приближение к Вечности - почти бессмертие посредством робототехники - не может быть самой желанной утопией, а её преследование влечёт за собой ясные опасности. Нам, быть может, следует пересмотреть наш выбор утопий заново.

Где мы можем искать новые нравственные основания для установления нашего курса? Я счёл очень полезными мысли, изложенные в книге Далай Ламы "Этика для нового тысячелетия"1 . Как может быть хорошо известно, но мало кто на это обращает внимание, Далай Лама доказывает, что самое важное для нас - это проводить наши жизни в любви и сочувствии к другим, и что нашим обществам нужно разработать более серьёзное представление о всеобщей ответственности и о нашей взаимосвязанности; он предлагает стандарт положительного нравственного поведения для индивидуумов и обществ, который кажется созвучным с утопией Аттали "Братство".

Далай Лама утверждает далее, что мы должны понять причину человеческого счастья и признать веские основания того, что ни материальный прогресс, ни стремление к силе знаний не являются разгадкой - что существуют пределы, до которых наука и научные поиски могут сами по себе действовать.

Наше западное понимание счастья происходит, похоже, от греков, которые определили его как "тренировка жизненных сил по линиям превосходства в жизни, давая им простор"2 .

Несомненно, нам нужно найти достойные задачи и достаточную цель в наших жизнях, если мы должны быть счастливы, что бы ни случилось. Но я полагаю, что мы должны найти альтернативный выход нашим созидательным силам, за пределами культуры вечного экономического роста; этот рост на протяжении нескольких сотен лет был в значительной степени благом, но он не принёс нам чистого, беспримесного счастья, и мы теперь обязаны выбирать между преследованием неограниченного и неориентированного роста через науку и технику с одной стороны и ясными сопутствующими опасностями с другой.

Вот уже прошло больше года со времени моей первой встречи с Рэем Курцвейлом и Джоном Сирлом. Я вижу вокруг себя основание для надежды в голосах предостережения и отказа и в тех обнаруженных мною людях, которые так же обеспокоены нашим теперешним положением, как и я. Я чувствую также повышенную личную ответственность - не за ту работу, которую я уже сделал, а за ту, которую я могу ещё сделать при слиянии наук.

Однако многие другие люди, знающие об этих опасностях, всё ещё представляются странно безмолвными. Когда же от них требуешь действий, они щеголяют находчивым ответом: "В этом нет ничего нового", - как будто понимание того, что может случиться, нашло достаточный отклик. Они уверяют меня: "В университетах полно специалистов в области биологической этики, которые изучают этот материал день-деньской". Они говорят: "Обо всём этом уже написали, и притом знатоки". Они жалуются: "Ваши тревоги и ваши дискуссии уже устарели".

Я не знаю, куда эти люди прячут свой страх. Как создатель сложных систем, я вступаю на этом поприще в качестве лидера. Но должно ли это ослаблять мои беспокойства? Я отдаю себе полный отчёт в том, как много об этом столь авторитетно написано, сказано и прочитано лекций. Но значит ли это, что это дошло до народа? Значит ли это, что мы можем не принимать в расчёт стоящие перед нами опасности?

Понимание не является логическим обоснованием для бездействия. Можем ли мы сомневаться в том, что знания стали оружием, которое мы держим в руках против самих себя?

Опыт учёных-атомщиков ясно показывает надобность взятия на себя персональной ответственности, показывает опасность, что обстоятельства будут развиваться слишком быстро и демонстрирует способ, которым ход развития может обернуться против нас самих. Мы можем, как сделали они, создать непреодолимые проблемы за почти нулевой временной промежуток. Мы обязаны изображать больше мысли на своём челе, если мы не хотим, чтобы последствия наших изобретений нас подобным же образом поразили и застигли врасплох.

Моя продолжающаяся профессиональная работа направлена на повышение надёжности программ. Программное обеспечение - это инструмент, и как разработчик инструментов, я обязан биться над применениями сделанных мной инструментов. Я всегда верил в то, что повышение надёжности программ, учитывая многочисленность их применений, сделает наш мир более безопасным и более хорошим местом; если бы я должен был убедиться в обратном, то я был бы морально обязан прекратить эту работу. Я теперь могу себе представить, что такой день может наступить.

Я не сержусь на всё это, но, по крайней мере, становлюсь немного меланхоличным. С этого времени прогресс будет для меня чем-то горьковато-сладким.

Вы помните прекрасную предпоследнюю сцену в "Манхэттене", где Вуди Аллен1 лежит на своей кушетке и говорит в магнитофон? Он записывает краткую историю о людях, которые создают для себя нервные и ненужные проблемы, потому что это отвлекает их от более неразрешимых и ужасающих мировых проблем.

Он приходит к вопросу: "Почему жизнь представляет ценность?" - и обдумывает, что делает её стоящей для него: Граучо Маркс, Вилли Мейс, вторая часть симфонии "Юпитер", запись "Блюза Картофельной Головы" Луи Армстронга, шведские кинофильмы, "Сентиментальное воспитание Флоберта", Марлон Брандо, Фрэнк Синатра, яблоки и груши Сезанна, крабы у Сэма Воу и, в заключение, лик Трейси, его возлюбленной2.

У каждого из нас есть свои дорогие предметы, и поскольку мы питаем к ним интерес, мы определяем местонахождение сущности нашей человеческой природы. В конечном счёте, именно из-за нашей великой способности заботиться я остаюсь оптимистом, веря, что мы будем противостоять рискованным проблемам, которые сейчас перед нами стоят.

Моя непосредственная надежда - участвовать в гораздо более широком обсуждении поднятых здесь проблем, с людьми из различных слоёв общества, в атмосфере, не предрасположенной к тому, чтобы страшиться или благоволить технике ради неё самой.

В качестве начала, я дважды поднял многие из этих проблем на мероприятиях, организованных институтом Аспена, и внёс индивидуальное предложение, чтобы Американская академия искусств и наук приняла их в качестве расширения своей работы на Пагуошских конференциях. (Они проводятся с 1957-го года для обсуждения контроля вооружений, главным образом, ядерного оружия и для формулировки осуществимой политики.)

К несчастью, Пагуошские встречи начались только спустя многое время после того, как ядерный джин был выпущен из бутылки - они запоздали приблизительно на 15 лет. Мы тоже берём запоздалый старт на серьёзную проработку проблем вокруг технологий 21-го века - предотвращение массового уничтожения, вызываемого знаниями - и дальнейшая проволочка представляется неприемлемой.

Так что я до сих пор ищу; есть ещё много обстоятельств, которые нужно узнать. Должны ли мы преуспеть или же потерпеть неудачу, должны выжить или же пасть жертвой этих технологий, ещё не решено. Опять я поздно встал - уже почти 6 часов утра. Я пробую представить себе несколько лучшие решения, чтобы избавиться от приступа дурного настроения и развеять неопределённость.

Вернор Виндж. Технологическая Сингулярность

Перевод - Олег Данилов.

/think/35815/

Vernor Vinge "The Coming Technological Singularity: How to Survive in the Post-Human Era"

Исходный вариант этой статьи математик и писатель Вернор Виндж представил на симпозиуме VISION-21, который проводился в 1993 году Центром космических исследований NASA им. Льюиса и Аэрокосмическим институтом Огайо. В 2003 году автор дополнил статью комментариями.

Что такое Сингулярность?

Ускорение технического прогресса - основная особенность XX века. Мы на грани перемен, сравнимых с появлением на Земле человека. Сугубая причина этих перемен заключается в том, что развитие техники неизбежно ведёт к созданию сущностей с интеллектом, превышающим человеческий. Наука может достичь такого прорыва разными путями (и это ещё один довод в пользу того, что прорыв произойдёт):

Компьютеры обретут "сознание", и возникнет сверхчеловеческий интеллект. (В настоящее время нет единого мнения о том, сумеем ли мы создать машину, равную человеку, однако, если это получится, несомненно, вскоре затем можно будет сконструировать еще более разумные существа).

Крупные компьютерные сети (и их объединенные пользователи) могут "осознать себя" как сверхчеловечески разумные сущности.

Машинно-человеческий интерфейс станет настолько тесным, что интеллект пользователей можно будет обоснованно считать сверхчеловеческим.

Биология может обеспечить нас средствами улучшения естественного человеческого интеллекта.

Первые три возможности напрямую связаны с совершенствованием компьютерного аппаратного обеспечения. [В действительности, четвёртая возможность также зависит от этого, хотя и косвенно.] Прогресс аппаратного обеспечения на протяжении уже нескольких десятилетий поразительно cтабилен. Исходя из этой тенденции, я считаю, что интеллект, превосходящий человеческий, появится в течение ближайших тридцати лет. (Чарльз Платт заметил, что энтузиасты ИИ делают подобные утверждения уже лет тридцать. Чтобы не быть голословным, отделавшись относительной временной двусмысленностью, позвольте мне уточнить: я удивлюсь, если это случится до 2005 года или после 2030 года). [Прошло десять лет, но я по-прежнему считаю, что указанный срок справедлив.]

Каковы будут последствия этого события? Когда прогресс будет направляться интеллектом, превосходящим человеческий, он станет куда стремительнее. Фактически, нет оснований полагать, что прогресс не станет плодить всё более разумные сущности всё более ускоренными темпами. Лучшая аналогия, которую можно здесь провести - в эволюционном прошлом. Животные могут приспособиться и проявлять изобретательность, но не быстрее, чем работает естественный отбор. В случае естественного отбора мир сам выступает в роли собственного симулятора. Мы, люди, обладаем способностью усваивать окружающий мир и выстраивать у себя в голове причинно-следственные связи, поэтому мы решаем многие проблемы в тысячи раз быстрее, чем механизм естественного отбора. Когда же появится возможность просчитывать эти модели на более высоких скоростях, мы войдём в режим, который отличается от нашего человеческого прошлого не менее радикально, чем мы, люди, сами отличаемся от низших животных.

Такое событие аннулирует за ненадобностью весь свод человеческих законов, возможно, в мгновение ока. Неуправляемая цепная реакция начнет развиваться по экспоненте безо всякой надежды на восстановление контроля над ситуацией. Изменения, на которые, как считалось, потребуются "тысячи веков" (если они вообще произойдут), скорее всего, случатся в ближайшие сто лет.

Вполне оправданно будет назвать данное событие сингулярностью (даже Сингулярностью, по замыслу данного эссе). Это точка, в которой наши старые модели придётся отбросить, где воцарится новая реальность. Это мир, очертания которого будут становиться всё четче, надвигаясь на современное человечество, пока эта новая реальность не заслонит собой окружающую действительность, став обыденностью. И всё же, когда мы такой точки, наконец, достигнем, это событие все равно станет великой неожиданностью и ещё большей неизвестностью. В пятидесятые годы немногие предвидели это. Стэн Юлам пересказывал однажды слова Джона фон Неймана: "Один разговор шел о непрерывно ускоряющемся техническом прогрессе и переменах в образе жизни людей, которые создают впечатление приближения некоторой важнейшей сингулярности в истории земной расы, за которой все человеческие дела, в том виде, в каком мы их знаем, не смогут продолжаться".

Фон Нейман даже использовал термин "сингулярность", хотя, похоже, он думал о нормальном прогрессе, а не о создании сверхчеловеческого интеллекта. (По моему же мнению, в сверхчеловечности кроется сама суть Сингулярности, без этого мы пресытимся избытком технических богатств, так и не сумев их как следует переварить).

В шестидесятые года отмечались признаки некоторого вовлечения в нашу жизнь сверхчеловеческого интеллекта. Ирвинг Джон Гуд писал: "Определим сверхразумную машину как машину, которая способна значительно превзойти все интеллектуальные действия любого человека, как бы умён тот ни был. Поскольку способность разработать такую машину также является одним из этих интеллектуальных действий, сверхразумная машина может построить ещё более совершенные машины. За этим, несомненно, последует "интеллектуальный взрыв", и разум человека намного отстанет от искусственного [далее здесь цитируются три более ранние работы Гуда]. Таким образом, первая сверхразумная машина станет последним изобретением, которое выпадет на долю человека, при условии, что машина будет достаточно покорна и поведает нам, как держать ее под контролем... И вероятность того, что в двадцатом веке сверхразумная машина будет построена и станет последним изобретением, которое совершит человек, выше, чем вероятность того, что этого не случится".

Гуд уловил суть разгона прогресса, но не рассматривал его самые тревожащие последствия. Любая разумная машина того типа, что он описывает, не будет "инструментом" человечества так же, как люди не стали орудиями кроликов, малиновок или шимпанзе.

В шестидесятые, семидесятые и восьмидесятые годы осознание грядущего катаклизма ширилось и росло. Вероятно, первыми его влияние почувствовали фантасты. В конце концов, ведь именно научной фантастике полагается рассказывать о том, чем обернутся для нас все эти технологии. Всё чаще писателей преследовало ощущение того, что будущее сокрыто за непроницаемой стеной. Когда-то воображение с лёгкостью переносило их на миллионы лет вперед. Теперь же они обнаруживают, что их наиболее усердные прогнозы относятся к неизвестному… завтра. Прежде галактические империи могли казаться постчеловеческимим реалиями. Ныне, как ни печально, даже межпланетные государства представляются таковыми.

[На самом деле теперь, в начале двадцать первого столетия, романы о космических приключениях делятся на группы, в зависимости от того, каким образом их авторы справляются с вероятностью появления сверхчеловеческих машин. Фантасты используют целый арсенал уловок, чтобы доказать их невозможность или удерживать на безопасном расстоянии от сюжета.]

Так что же ждет нас в эти два-три десятка лет, пока мы движемся к краю? Как наступление Сингулярности станет утверждаться в человеческом мировосприятии? До поры, до времени неплохую прессу будут иметь критики машинного разума. В конце концов, пока не появится аппаратное обеспечение, сравнимое по мощи с человеческим мозгом, наивно надеяться создать интеллект, сравнимый с разумом человека (или превосходящий его). (Есть малоправдоподобная вероятность, что достичь уровня человеческого разума можно и на менее мощном "железе", если мы готовы поступиться скоростью и нас устроит искусственное существо, которое будет медленным в самом буквальном смысле слова. Но, скорее всего, составление программы для него окажется нетривиальным занятием и не обойдётся без многочисленных фальстартов и экспериментов. А раз так, значит, эра машин, наделенных самосознанием, не наступит, пока не будет разработано аппаратное обеспечение, обладающее существенно большей мощностью, чем природное снаряжение человека).

Однако с течением времени мы будем наблюдать все больше симптомов. Дилемма, которую прочувствовали фантасты, станет восприниматься в контексте творческих усилий иного рода. (Мне известно, что вдумчивые авторы комиксов уже беспокоятся о том, каким образом придется создавать зрительные эффекты, когда все видимое вокруг станет можно отображать при помощи широко доступных технических средств.) Мы станем свидетелями того, как постепенно будут автоматизироваться задачи всё более высокого уровня. Уже сейчас существуют инструменты (программы символической логики, САПР), которые освобождают нас от большинства нудной рутины. Есть и обратная сторона медали: истинно производительный труд становится уделом стабильно сокращающейся узкой элиты человечества. С пришествием Сингулярности мы увидим, как, наконец, сбываются прогнозы о настоящей техногенной безработице.

Другой признак движения к Сингулярности: сами идеи должны распространяться быстрее, и даже самые радикальные из них начнут моментально становиться достоянием общественности.

А каким же будет наступление самой Сингулярности? Что можно сказать об истинном характере этого события? Поскольку дело касается интеллектуального разгона, вероятно, это окажется самой стремительной технической революцией из всех прежде нам известных. Свалится, вероятнее всего, как снег на голову - даже вовлеченным в процесс учёным. ("Но ведь все наши предшествующие модели не двигались! Мы только подкрутили кое-какие настройки...") Если сети достаточно широко распространены (в вездесущих встроенных системах), может показаться, будто наши артефакты вдруг обрели самосознание.

И что же тогда случится через месяц или два (или через день-другой) после этого? Есть только одна аналогия, которую я могу провести - возникновение человечества. Мы очутимся в постчеловеческой эре. И несмотря на весь свой технический оптимизм, мне было бы куда комфортнее, если бы меня от этих сверхъестественных событий отделяли тысяча лет, а не двадцать.



Скачать документ

Похожие документы:

  1. ПРОБЛЕМЫ ПРЕДОТВРАЩЕНИЯ ГЛОБАЛЬНЫХ РИСКОВ

    Сборник статей
    ПРОБЛЕМЫПРЕДОТВРАЩЕНИЯГЛОБАЛЬНЫХРИСКОВ, УГРОЖАЮЩИХ СУЩЕСТВОВАНИЮ ЧЕЛОВЕЧЕСКОЙ ЦИВИЛИЗАЦИИ ... решения задач неуничтожимости человечества 427 «Проблемыпредотвращенияглобальныхрисков, угрожающих существованию человеческой цивилизации». Предисловие ...
  2. Глобальные риски Сборник статей Под редакцией Препринт Проект Российского Трансгуманистического Движения Москва 2011

    Сборник статей
    ... анализе проблемы. В статье знаменитого писателя-фантаста Д.Брина рассматривается такой способ предотвращенияглобальных катастроф ... фактор глобальногориска», а не «Глобальныериски Искусственного интеллекта». Перспектива ИИ влияет на глобальныериски ...
  3. В память об Eszter СТРУКТУРА ГЛОБАЛЬНОЙ КАТАСТРОФЫ Риски вымирания человечества в XXI веке Препринт Предисловие Вводное слово Н

    Книга
    ... на общечеловеческие проблемы, открыть новые уязвимости и указать новые пути предотвращенияглобальныхрисков. Если наша ... общественных организаций, изучающих проблемыглобальныхрисков и финансирующих исследования по их предотвращению, – это Lifeboat ...
  4. Глобальный экологический фонд проект " сохранение биоразнообразия российской федерации"

    Интернет справочник
    ... странами и странами с переходной экономикой для предотвращенияглобального изменения климата, создает реальные предпосылки ... “риск” принимается во внимание при назначении зарплаты на рынке труда. Глобальные экологические проблемы ...
  5. Систематические ошибки в рассуждениях потенциально влияющие на оценку глобальных рисков

    Документ
    ... за международную дипломатию, направленную на предотвращение нанотехнологической войны с Китаем, чем за ... точное соответствие). Любой глобальныйриск порождает проблемы, общие со всеми остальными глобальнымирисками, дополнительно к специальным ...

Другие похожие документы..