10 ужасающих технологий, существование которых недопустимо

0
217

Все глубже погружаясь в ХХІ век, мы начинаем замечать фантастические технологические возможности, которые он нам готовит. Но вместе с этим к нам приходит мрачное осознание потенциальных ужасов. Вот 10 устрашающих технологий, которые ни в коем случае нельзя воплощать в жизнь.

Создавая этот список, я заметил, что многие описанные ниже разработки могли бы оказаться чрезвычайно полезны. Поэтому для меня было важно показать различие между самими технологиями, и возможностями злоупотребления ими. Возьмите, например, нанотехнологии. Они способны избавить нас от дефицита, помочь в очищении окружающей среды и внести изменения в биологию человека. Но они же могут уничтожить нашу Землю в достаточно короткие сроки. Поэтому, когда время развития этой футуристической технологии наступит, мы должны обеспечить максимальную безопасность и ответственность при ее использовании. Помимо этого, важно уметь вовремя признать, что конкретное направление научно-технических исследований не стоит ожидаемой выгоды. Ярким примером тому служит искусственный сверхинтеллект.

Однако есть технологии, которые действительно могут считаться злом. Ниже приведено высказывание на данную тему Патрика Лина, директора организации Ethics + Emerging Sciences Group, действующей на базе Калифорнийского политехнического государственного университета:

«Предположение о нейтральности или аморальности технологии — миф, который необходимо рассеять. Разработчик в силах привнести в свое творение мораль, пусть даже оно ею изначально не обладает. Зачастую это трудно заметить, но есть технологии, являющиеся воплощениями зла. Они не могут принести никакой пользы обществу, например, газовая камера и любое другое устройство из нижеприведенных. Но и независимо от этого (существуют ли хорошие или плохие по своей сути технологии), все сходятся на мысли о том, что большую их часть можно использовать как во благо, так и во вред. И если потенциальный вред от применения данной технологии гораздо больше предполагаемой пользы, это может привести к отказу от ее разработки».

Вот 10 леденящих душу технологий, в том числе малоизвестные, которые никогда не должны появиться в нашем мире (перечислены в произвольном порядке):

1. Военные нанотехнологии

Наиболее стремительный конец господству человека на голубой планете могут положить военные – либо неумело созданные – молекулярные нанотехнологии.

Эту угрозу формируют две мощнейшие силы: во-первых – не поддающееся контролю самовоспроизведение, во-вторых – увеличение их количества в геометрической прогрессии. В достаточной мере равнодушные правители, частные субъекты или отдельные лица вполне способны спроектировать микромашины, молниеносно потребляющие жизненно важные ресурсы Земли, продолжая производить себе подобных и захламляя Землю бесполезными отходами. Футурологи дали данному сценарию название «серая слизь». Роберт Фрейтас, будучи теоретиком в сфере нанотехнологий, назвал ряд потенциальных смертоносных наноботов, среди которых серая пыль, серый планктон, серые лишайники и, так называемые, убийцы биомассы. Серая пыль скроет от нас солнечный свет, серый планктон, а точнее саморазмножающиеся на дне моря репликаторы, уничтожат богатую углеродом экологию, серые лишайники возьмутся за полезные ископаемые, а убийцы биомассы займутся живыми организмами.

Согласно Фрейтасу, в самом худшем случае «глобальной экофагии» у будет нас примерно 20 месяцев, и этого времени вполне достаточно для заблаговременного предупреждения и создания достойной защиты. Защита, в понимании Фрейтаса, должна заключаться в противодействии, подобном использованию самовоспроизводящихся нанотехнологий, или в создании некой системы, способной разрушать наноботы изнутри. Альтернативой этому было бы создание «активных щитов» до возникновения данной угрозы, но среди экспертов бытует мнение, что такие щиты будут бесполезны. А значит нужно разработать и ввести запрет на создание военных нанотехнологий.

2. Машины, обладающие сознанием

Как правило, считается само собой разумеющимся, что искусственное сознание будет входить в комплектацию наших машин. Но прежде чем воплощать эти планы в жизнь, необходимо серьезно задуматься. Ведь в действительности это очень жестоко – создавать функционирующий мозг, запертый в машине, будь то эмуляция мозга животного или человека.
Об этом в 2003 году говорил Томас Метцингер. По его словам, создание программного обеспечения, способного страдать, ужасно неэтично:

«Как бы вы ответили, если бы кто-то заявил о намерении генетического моделирования младенцев с умственной отсталостью, попросил предоставить детей, познавательные и эмоциональные способности которых ограничены, чтобы изучить психологическое развитие этих малышей после родов, ну и потребовал выделить средства для финансирования данного важнейшего и новейшего исследования? Естественно, вам бы это показалось не только абсурдным и ужасным, но и очень опасным предприятием. Остается лишь верить, что подобные эксперименты никогда не получат одобрение ни одного комитета по этике. Но эти комитеты не замечают, что, будучи наделенными минимальными способностями формирования опыта, первые машины похожи на умственно отсталых детей. А значит они вполне могут испытывать страдания из-за разного рода ограничений. И теперь они будут субъективно испытывать эти ограничения, но никакого политического лобби, например, представителей в комитетах по этике, не получат».

Вот слова футуролога Луи Хельма, выражающего согласие с данным тезисом:

«Компьютеры более всего ценны тем, что способны производить огромное множество операций, не испытывая обиды и не страдая от скуки. И раз уж искусственному интеллекту предстоит заменить человеческий умственный труд, достаточно аморальным было бы преднамеренно наделять его самосознанием. Запирая сознательное существо в машине и заставляя его выполнять нашу работу, мы превращаемся в рабовладельцев. Нельзя также забывать, что сознание достаточно уязвимо. Всего лишь несколько неверно запрограммированных генов в геноме человека приводят к возникновению синдрома Дауна, шизофрении, аутизма или эпилепсии. Как же, должно быть, ужасно ощущала бы себя слегка недопрограммированная форма сознания. Есть группа разработчиков искусственного интеллекта, пытающаяся смоделировать человеческий интеллект путем имитации биологической структуры мозга человека. Эта программа хорошо финансируется, но я очень надеюсь, что их попытки смоделировать кору головного мозга будут достаточно грубыми и неработоспособными. Но в той мере, в которой они работают, первый «успех», скорее всего, создаст безобразно неприятные или невменяемые состояния субъективного опыта. Будучи программистом, я выступаю категорически против создания ИИ, наделенного самосознанием. И причина в том, что я не приемлю рабства, пыток и ненужного кода».

3. Искусственный суперинтеллект

Ранее Стивен Хокинг говорил, что создание ИИ может обернуться крупнейшей ошибкой человечества. Действительно, создание интеллекта более мощного, чем человеческий, вероятнее всего приведет к катастрофе. Использование систем, опережающих нас в скорости и эффективности, вынудит нас уйти на второй план. Мы попадем в полную зависимость от искусственного сверхинтеллекта, какие бы решения он не принял. И вовсе неясно, способны ли мы создать дружественный нам ИИ, чтобы не допустить этого. Эта проблема должна быть решена, иначе создание искусственного суперинтеллекта было бы абсолютным сумасшествием.

4. Путешествия сквозь время

Мне как-то не особо верится в возможность путешествий в прошлое или будущее (иначе где они все – путешественники во времени?), но скажу так – если такая возможность появится, нам стоило бы от нее воздержаться.
Это было бы крайне опасно. Чтобы получить представление об опасностях и неприятных парадоксах, подстерегающих нас в путешествиях во времени, достаточно посмотреть фильмы из жанра научной фантастики, в которых идет речь о нарушениях временной оси. И пусть даже появится возможность путешествовать сквозь время, создавая абсолютно новые и незаметные временные рамки, столкновение культур и технологий не принесет ничего хорошего.

5. Чтение мыслей

Вскоре мы сможем обзавестись приборами, способными на расстоянии читать наши мысли и воспоминания, не дожидаясь нашего на то согласия. Но сначала должна произойти интеграция мозга человека в сеть и другие коммуникационные каналы.

Относительно недавно группа нидерландских ученых с помощью снимков головного мозга и опрделенных алгоритмов смогла определить, на какие символы смотрел «испытуемый». Это натолкнуло третьих лиц на мысль о потенциальной возможности реконструировать мысли с максимально возможной детализацией, охватывающей такие сферы умственной деятельности, как память, мышление, зрительное восприятие. При массовом использовании подобных устройств в условиях тоталитаризма или в полицейском государстве жизнь была бы невыносимой. Перед нами предстал бы мир Оруэлла, осуждающий людей за «мыслепреступления».

6. Отмычка для мозга

Существует также потенциальная возможность изменения разума без ведома или согласия его хозяев. Как только мы станем счастливыми обладателями мозговых чипов без достаточно эффективных когнитивных файерволов, наш мозг подвергнется воздействию Интернета со всеми его ужасами. И мы уже начали движение в этом направлении. Недавно, например, группой нейробиологов был поставлен эксперимент, позволивший его участникам обмениваться мыслями посредством сети Интернет. Однако, как бы это ни было интересно, такая технологическая телепатия – прямая дорога к ящику Пандоры. Аниме «Призрак в доспехах», в котором искусственный интеллект управляет памятью и намерениями своих жертв, прекрасно демонстрирует, насколько опасна данная технология. А что если ею завладеют преступные группировки или параноидальные правительства?

7. Автономные роботы, предназначены для уничтожения человека

Создание автономных машин-убийц ужасает, и в отличие от других в приведенном списке, это изобретение уже стало реальностью.
Вот, что поведал об этом футуролог Майкл ЛаТорр:

Мы не обладаем на данный момент машинами, оснащенными интеллектом, сколько-нибудь равным человеческому. Но ведь роботы-убийцы в таковом и не нуждаются. Сегодня уже есть все для того, чтобы создавать роботизированные военные транспортные средства всех видов, будь то танки, самолеты, подводные лодки, корабли или же человекоподобные боевые роботы. Не нуждаясь в дистанционном управлении, такие роботы могли бы без каких-либо команд извне определять и уничтожать цель. Опасность данной технологии лежит на поверхности и не ограничивается непосредственной угрозой «дружественного огня», когда робот по ошибке убивает своих «товарищей по оружию» или же гражданских лиц. Гораздо большая опасность заключается в гонке на мировом рынке вооружений, которая обязательно начнется, если какая-либо нация начнет создавать автономных военных роботов. Несколько циклов усовершенствования в данной гонке приведут к созданию настолько мощных автономных военных роботов, что они смогут держать под контролем любую военную систему человека. А там уже, или из-за роковой случайности («Кто же мог предположить, что в военном роботе спонтанно может возникнуть ИИ?»), или по задумке создателя («Мы и не думали, что наши роботы могут быть перепрограммированы дистанционно!») человек, подобно илотам в Спарте, может стать рабом ИИ.

8. Боевые патогенные микроорганизмы

Еще одна острая и пугающе актуальная проблема. В 2005 году Рэем Курцвейлом и Биллом Джойем было заявлено, что, открыв мировому сообществу геном смертоносных вирусов, мы сами вручили ему рецепт уничтожения человечества. Всегда остается вероятность того, что эти данные попадут в руки какого-то идиота или кучки фанатиков, которые воссоздадут новый или изменят имеющийся вирус, сделав его более смертоносным, и выпустят его на свободу. Произведенные расчеты показали, что искусственно созданный птичий грипп может убить половину населения Земли. Не менее тревожно и то, как исследователи из Китая, соединив штаммы птичьего и свиного гриппа, создали мутантный вирус, передающийся воздушно-капельным путем. Разумеется, подобные опыты проводятся с целью изучения противника и разработки возможных мер противодействия до фактического возникновения пандемии. Только вот нет гарантии, что вирус не сбежит из лаборатории и не посеет хаос в человеческих популяциях. Или что он не будет использован в качестве оружия массового уничтожения. Также существует опасность создания боевого генома специфических вирусов.

Пришло время властям задуматься об этой мрачной возможности, прежде чем произойдет что-то чудовищное. Как сообщили во внешней политике, группа ИГИЛ уже на это готова

9. Тюрьма нового поколения

Предположим, человек победил старость и может жить сотни и тысячи лет. Как тогда быть с заключенными? А что, если станет возможной виртуальная обработка их умов? Ребекка Роуч, будучи специалистом в области этики, делает ужасающие прогнозы:
У экстремального продления жизни много преимуществ, но оно также дает возможность увеличить степень тяжести наказаний. Предположим, прокурор сочтет 30-летнее тюремное заключение недостаточным. Тогда он сможет приговорить осужденного к пожизненному лишению свободы и соответствующему продлению жизни. В итоге, заключенный проведет в тюрьме не десятки, а сотни лет. Разумеется, такие приговоры ударят по карману рядовых граждан. Но это будет компенсировано благодаря увеличившимся взносам долгоживущих тружеников.

Или так: разум осужденного загружается в систему и ускоряется в миллион раз, что позволит заставить загруженного преступника за восемь с половиной часов отмотать 1000-летний срок. Разумеется, это существенно дешевле, чем продлевать жизнь преступников для того, чтобы они могли отбывать 1000-летний срок в реальном времени. Помимо этого, после восьми с половиной часов 1000-летнего тюремного заключения может последовать несколько часов (или, с точки зрения преступника, несколько сотен лет) лечения и реабилитации. От восхода до заката солнца ужасные преступники могли бы провести тысячу лет на каторге и вернуться полностью реабилитированными в реальный мир (если технология облегчает передачу их обратно в биологический субстрат) или быть сосланными в мир, смоделированный на компьютере.

Это чудовищно! Важно заметить, что Роуч ни в коем случае не выступает за эти методы наказания, это лишь ее прогнозы. Но Боже правый, давайте НИКОГДА не воплощать их в реальность.

10. Создание ада

Эта идея очень походит на предыдущую. Часть футурологов выступают за создание рая на земле. Для этого они предлагают использовать передовые технологии, такие как загрузка сознания и виртуальная реальность. Но где гарантии, что, создав рай, никто не возьмется за создание ада. Леденящая душу перспектива, особенно если принять во внимание экстремальное продление жизни в комплексе с почти безграничными возможностями для причинения психологического и физического страдания. Наверное, это самое ужасное, что может прийти на ум; и совершенно непонятно, как кто-то может такое вообще создать. Вот вам и еще одна причина, по которой необходимо запретить разработку искусственного суперинтеллекта, и предотвратить возникновение так называемой проблемы Василиска Роко

ОСТАВЬТЕ ОТВЕТ