-÷итатник

ћј——ќ¬џ≈ ј–≈—“џ ¬ —Ўј Ќј„»Ќјё“—я, ЁЋ»“ј √ќ“ќ¬»“—я   ј–ћј√≈ƒƒќЌ” - (0)

ћј——ќ¬џ≈ ј–≈—“џ ¬ —Ўј Ќј„»Ќјё“—я, ЁЋ»“ј √ќ“ќ¬»“—я   ј–ћј√≈ƒƒќЌ” ¬ недавнем видео альт...

ќ чЄм молчат руины и шепчут пирамиды - (1)

ќ чЄм молчат руины и шепчут пирамиды - 1 ∆ан- ристоф ћивилль «–уины на...

 -–езюме

ћила

 -ѕриложени€

  • ѕерейти к приложению ќткрытки ќткрыткиѕерерожденный каталог открыток на все случаи жизни
  • ѕерейти к приложению —тена —тена—тена: мини-гостева€ книга, позвол€ет посетител€м ¬ашего дневника оставл€ть ¬ам сообщени€. ƒл€ того, чтобы сообщени€ по€вились у ¬ас в профиле необходимо зайти на свою стену и нажать кнопку "ќбновить
  • ѕерейти к приложению я - фотограф я - фотографѕлагин дл€ публикации фотографий в дневнике пользовател€. ћинимальные системные требовани€: Internet Explorer 6, Fire Fox 1.5, Opera 9.5, Safari 3.1.1 со включенным JavaScript. ¬озможно это будет рабо
  • ѕерейти к приложению ќнлайн-игра "Empire" ќнлайн-игра "Empire"ѕреврати свой маленький замок в могущественную крепость и стань правителем величайшего королевства в игре Goodgame Empire. —трой свою собственную империю, расшир€й ее и защищай от других игроков. Ѕ
  • ѕерейти к приложению ќнлайн-игра "Ѕольша€ ферма" ќнлайн-игра "Ѕольша€ ферма"ƒ€д€ ƒжордж оставил тебе свою ферму, но, к сожалению, она не в очень хорошем состо€нии. Ќо благодар€ твоей деловой хватке и помощи соседей, друзей и родных ты в состо€нии превратить захиревшее хоз€йст

 -‘отоальбом

ѕосмотреть все фотографии серии фотообои
фотообои
19:12 17.06.2015
‘отографий: 138
ѕосмотреть все фотографии серии ÷веты.
÷веты.
19:09 17.06.2015
‘отографий: 6
ѕосмотреть все фотографии серии  расиво.
 расиво.
21:49 26.10.2008
‘отографий: 20

 -—тена

 -ѕоиск по дневнику

ѕоиск сообщений в Mila111111

 -ѕодписка по e-mail

 

 -—татистика

—татистика LiveInternet.ru: показано количество хитов и посетителей
—оздан: 17.02.2005
«аписей: 39359
 омментариев: 213114
Ќаписано: 297767


10 пугающих технологий будущего

—уббота, 04 »юн€ 2016 г. 14:42 + в цитатник
„ем глубже мы погружаемс€ в 21 первый век, тем отчетливее проступают фантастические возможности, которые перед нами открываютс€. » тем отчетливее мы испытываем мрачные чувства, когда о них думаем. ѕеред вами дес€ть пугающих технологий, которых лучше бы никогда не существовало.  огда вы с ними ознакомитесь, вам станет очевидно, что многим из этих технологий могли бы найти хорошее применение. Ќо важно провести разделительную черту между технологией как таковой и тем, как ее можно использовать.



¬з€ть, к примеру, нанотехнологии. ѕо мере разработки, их можно использовать, чтобы положить конец посто€нному дефициту, очистить окружающую среду, переделать биологию человека. Ќо также их можно использовать дл€ весьма быстрого уничтожени€ нашей планеты. “ак что когда настанет врем€ разрабатывать и использовать эти футуристические технологии, нам придетс€ подойти к этому со всей ответственностью. ¬озможно, мы придем к мысли, что отдельна€ сери€ технологических разработок и сопр€женные с ней риски не сто€т преимуществ. Ќапример, искусственный сверхинтеллект.

Ќекоторые технологии объективно опасны. ¬от что говорит по этому поводу ѕатрик Ћин, директор Ethics + Emerging Sciences Group из  алифорнийского политехнического государственного университета:

Ђ»де€ того, что технологии нейтральны или не имеют отношени€ к нравственности, это миф, который нужно разве€ть. ƒизайнер может наделить этикой создание, даже если этот предмет не имеет никакого морального агента сам по себе. Ёта функци€ может быть слишком незаметной в большинстве случаев, но некоторые технологии были рождены от зла и не имеют благотворного применени€, например, газовые камеры. Ѕолее того, хот€ технологии могут быть изначально хорошими или плохими, любой согласитс€ с тем, что у большинства технологий имеютс€ как хорошие, так и плохие варианты применений. ≈сли веро€тность применени€ технологии во им€ зла выше, чем во им€ добра, возможно, такую технологию не стоит разрабатыватьї.

¬оенные нанотехнологии

≈два ли что-нибудь еще может положить конец нашему правлению на «емле быстрее, чем военные Ч или сильно испорченные Ч нанотехнологии молекул€рной сборки.

Ёта угроза проистекает из двух чрезвычайно мощных сил: неконтролируемое самовоспроизводство и экспоненциальный рост. Ќигилистическое правительство, негосударственный агент или частное лицо может разработать микроскопические машины, которые поглот€т критически важные ресурсы нашей планеты со скоростью лесного пожара (очень быстро), при этом плод€сь в огромном количестве и оставл€€ бесполезные побочные продукты на своем пути Ч футурологи называют этот сценарий Ђсерой слизьюї.

“еоретик нанотехнологий –оберт ‘рейтас предложил несколько возможных вариантов по€влени€ губительных дл€ планеты нанотехнологий, включа€ серую пыль, серый планктон, серые лишайники и так называемые убийцы биомассы. —ера€ пыль закроет нас от солнечного света; серый планктон будет состо€ть из выращенных на дне океана репликаторов, которые поед€т всю наземную богатую углеродом экологию; серые лишайники уничтожат наземную геологию, а убийцы биомассы атакуют разнообразные организмы.

ѕо мнению ‘рейтаса, худший сценарий Ђглобальной экофагииї займет пор€дка 20 мес€цев, чего будет более чем достаточно, чтобы сконструировать эффективную защиту. ѕод защитой ‘рейтас имеет в виду контрмеры в виде самореплицирующихс€ нанотехнологий или систему, котора€ выводит из стро€ внутренний механизм наноботов. — другой стороны, мы могли бы развернуть Ђактивные щитыї заранее, но большинство экспертов в области нанотехнологий сход€тс€ в том, что это будет бесполезно. —ледовательно, придетс€ разрабатывать и поддерживать мораторий на создание боевых нанотехнологий.

–азумные машины

ќднажды мы подарим машинам искусственное сознание, это уже принимаетс€ как само собой разумеющеес€. Ќо прежде чем двигатьс€ вперед к такому будущему, нам нужно очень серьезно подумать. ¬озможно, будет слишком жестоким строить функциональный мозг внутри компьютера Ч и это касаетс€ как животных, так и человеческих эмул€ций.

≈ще в 2003 году философ “омас ћетцингер утверждал, что было бы чудовищно неэтично разрабатывать программное обеспечение, которое может испытывать страдани€:

Ђ„то бы вы сказали, если бы кто-нибудь пришел и сказал: Ђћы хотим генетически измен€ть умственно отсталых человеческих младенцев! ѕо некоторым угодным научному прогрессу причинам, нам нужны младенцы с определенными когнитивными и эмоциональными отклонени€ми, чтобы изучать их послеродовое психологическое развитие Ч нам срочно нужны средства дл€ этого важного и новаторского типа исследований!ї. ¬ы бы сочли, что это не только абсурдна€ и сомнительна€, но и опасна€ иде€. ≈е не пропустила бы ни одна комисси€ по этике в демократическом мире. ќднако нынешние комитеты по этике не вид€т, что первые машины, удовлетвор€ющие минимальным услови€м сознательного опыта, могут быть такими же умственно отсталыми младенцами. ќни могут страдать от всех видов функционального и репрезентативного дефицита. » они будут субъективно ощущать этот дефицит. Ѕолее того, у них не будет никакой защиты и никаких представителей в комитетах по этикеї.

‘утуролог Ћуи ’ельм соглашаетс€ с ним:

Ђ омпьютеры особенно хороши тем, что могут подсчитать сумму миллионов колонок в таблице и не устать, не соскучитьс€. ѕоскольку мы планируем использовать искусственный интеллект в качестве замены умственного труда, думаю, было бы безнравственно создавать разумные программы. «аточить сознательное существо в машине и заставить его работать на вас Ч это практически рабство.  роме того, сознание Ч хрупка€ штука. Ќесколько неправильно закодированных генов у человека могут вызвать синдром ƒауна, шизофрению, аутизм или эпилепсию.  аково это: обладать неправильно запрограммированной формой сознани€? Ќапример, несколько хорошо спонсируемых разработчиков »» захот€т воссоздать разум человека в машинах за счет имитации биологической структуры мозга человека. я ожидаю и даже немного надеюсь, что эти первые попытки моделировани€ будут слишком грубыми, чтобы действительно выгореть. Ќо в случае Ђуспехаї, первые результаты наверн€ка пород€т странное, непри€тное и обрезанное состо€ние субъективного опыта.  ак программист, € против самосознательного искусственного интеллекта. Ќе потому что это будет не круто. ј потому что € морально против рабства, пыток и плохого кодаї.

»скусственный сверхинтеллект

 ак за€вил —тивен ’окинг в начале этого года, искусственный интеллект может быть нашей худшей ошибкой в истории. ћного раз мы обсуждали то, что по€вление сверхчеловеческого интеллекта может стать катастрофой. ѕо€вление систем, которые намного быстрее и умнее нас, откинет нас на задний план. ћы окажемс€ во власти того, что пожелает искусственный сверхинтеллект Ч и непон€тно, удастс€ ли нам создать дружественный искусственный интеллект. Ќам придетс€ решить эту проблему как можно быстрее, иначе развитие искусственного сверхинтеллекта может положить конец человеческой расе.

ѕутешестви€ во времени

Ќе то чтобы € сильно верил в возможность путешествий во времени (разве все мы не путешествуем во времени пр€мо сейчас?), но сбрасывать ее со счетов не стоит. Ѕолее того, нам нужно держатьс€ от нее подальше.

ѕутешестви€ во времени могут быть чертовски опасными. Ћюбой фильм про запутанные временные линии расскажет вам о потенциальных опасност€х, включа€ непри€тные парадоксы. » даже если нека€ форма квантовых путешествий во времени станет возможна Ч когда создаютс€ совершенно новые и раздельные временные линии Ч культурный и технологический обмен между разными цивилизаци€ми вр€д ли может закончитьс€ хорошо.

”стройства дл€ чтени€ мыслей

ѕерспектива существовани€ машин, которые могут читать мысли и воспоминани€ людей на рассто€нии и не очень, с их согласи€ и без, вызывает опасени€. Ќо такое вр€д ли будет возможно, пока человеческий мозг не станет более тесно интегрирован с сетью и другими каналами св€зи.

¬ прошлом году, например, ученые из Ќидерландов использовали данные сканировани€ мозга и компьютерные алгоритмы, чтобы определить, на какие буквы смотрит человек. Ётот прорыв показал возможность реконструкции человеческих мыслей с беспрецедентным уровнем детализации третьим лицом Ч включа€ то, что мы видим, о чем думаем, что помним. ≈сли такие устройства попадут в лапы тоталитарного режима или полицейского государства, жизнь станет невозможной и невыносимой. ћир будет похож на оруэлловский, в котором будут наказывать даже за преступлени€, совершенные в мысл€х.

”стройства дл€ взлома мозга

—уществует возможность, что наше сознание можно будет изменить, вместе с нашими знани€ми и воспоминани€ми.  ак только мы получим чипы в мозг и все барьеры падут, наше сознание будет открыто дл€ всего »нтернета и всех его зол.

ѕервый шаг по направлению к этой цели мы уже сделали. Ќе так давно международна€ группа неврологов начала эксперимент, который позволит участникам осуществл€ть св€зь от мозга к мозгу через »нтернет.  лассно, подумаете вы, но така€ техническа€ телепати€ открывает целый €щик ѕандоры. «лоумышленник может получить возможность к модификации воспоминаний и намерений жертвы. ј что будет, если такую возможность получат целые организации или параноидальные правительства?

јвтономные роботы дл€ уничтожени€ людей

ѕотенциал автономных машин, убивающих людей, пугает всех Ч и, наверное, это первый пункт на повестке дн€, с которым нужно начинать боротьс€.

¬от что говорит футуролог ћайкл Ћаторра:

Ђ” нас пока нет машин, которые обладают общим интеллектом, близким к уровню человека. Ќо дл€ операций автономных роботов с летальными способност€ми интеллект человеческого уровн€ не требуетс€. —троительство всевозможных роботизированных военных аппаратов уже идет полным ходом. –оботы-танки, самолеты, корабли, подлодки, роботы-солдаты Ч все это возможно уже сегодн€. ¬ отличие от беспилотных дронов с дистанционным управлением, военные роботы могут определ€ть цели и уничтожить их без человеческой указки и приказа стрел€ть. ќпасность такой технологии должна быть очевидна, но не должна сводитьс€ только к угрозе Ђдружественного огн€ї, когда роботы случайно убивают людей на своей стороне конфликта или даже невинных граждан.  уда больша€ опасность скрываетс€ в международной гонке вооружений, котора€ может развернутьс€, если кака€-нибудь страна начнет строить автономных боевых роботов. ѕосле нескольких циклов улучшений, гонка создани€ еще более мощных военных роботов может перейти порог, когда новейшее поколение автономных роботов сможет побороть любую военную систему под управлением людей. » тогда, случайно или намеренно, человечество может поставить себ€ в ужасное положение, окажетс€ раздавленными жертвами боевых роботовї.

Ѕоевые патогены

Ёто еще одна тема, котора€ волнует многих. ¬ 2005 году –эй  урцвейл и Ѕилл ƒжой отмечали, что публикаци€ геномов смертельных вирусов дл€ всего мира будет убийственным рецептом. ¬сегда найдетс€ идиот или кучка фанатиков, которые возьмут эту информацию на вооружение и либо реконструируют вирус с нул€, либо модифицируют существующие вирусы, сделав их еще более опасными, а потом выпустит в мир. Ѕыло подсчитано, например, что модифицированный птичий грипп мог бы уничтожить половину земного населени€. ј ученые из  ита€ и вовсе совместили птичий и свиной грипп, создав насто€щего мутанта. ÷елью их, конечно, было пон€ть, узнать врага и разработать возможные контрмеры, прежде чем вспыхнет насто€ща€ пандеми€. Ќо всегда есть опасность, что вирус сбежит из лаборатории и посеет хаос среди людей. »ли что его возьмут на вооружение и спуст€т с цепи.

ѕришло врем€ задуматьс€ об этой мрачной возможности до того, как случитс€ нечто ужасное.

¬иртуальные тюрьмы и пытки

 акими будут пытки и тюрьмы, если люди смогут жить в течение сотен или тыс€ч лет? „то будет с заключенными, если их разумы загрузить в виртуальный мир? Ётик –ебекка –оач занимаетс€ исследованием этих ужасных сценариев:

Ђѕреимущества бессмерти€ очевидны Ч но вместе с ним может увеличитьс€ мера наказани€. ≈сли тридцать лет заключени€ сочтут слишком м€гким наказанием, преступнику могут дать и пожизненное с учетом увеличенной продолжительности жизни. ѕожизненное заключение превратитс€ в несколько сотен лет, например. ѕравда, обществу может быть дороже содержать таких преступников. Ќо если же увеличение продолжительности жизни станет доступно повсеместно, долгожители несомненно внесут свой вклад в виде долгоживущей рабочей силы.

«агрузка сознани€ совершившего преступление и ускорение его в миллион раз позволит ему Ђотработатьї преступление с наказанием в 1000 лет за восемь с половиной часов. Ёто будет дешевле, чем содержать преступника на деньги налогоплательщиков ту же 1000 лет. ¬след за этим концентрированным наказанием может последовать реабилитаци€, также на несколько часовї.

—оздание ада

Ётот вариант похож на предыдущий. Ќекоторые футурологи предвид€т создание ра€Ч использование передовых технологий, включа€ загрузку сознани€ и виртуальную реальность, которые преврат€т «емлю в парадиз. Ќо если вы можете создать рай, вы можете создать и ад. Ёта перспектива особенно пугает, если учесть неопределенную продолжительность жизни, а также практически безграничные возможности психологического и физического наказани€. —ложно представить, что кто-то в принципе захочет разрабатывать такую вещь. Ќо этим кем-то может быть искусственный сверхинтеллект. ¬ы же помните проблему ¬асилиска –око?
http://earth-chronicles.ru/news/2016-06-03-92808
–убрики:  интересно.

ѕонравилось: 1 пользователю



Boyarishnik   обратитьс€ по имени —уббота, 04 »юн€ 2016 г. 15:31 (ссылка)
"...¬з€ть, к примеру, нанотехнологии. ѕо мере разработки, их можно использовать, чтобы положить конец посто€нному дефициту, очистить окружающую среду, переделать биологию человека..." - а зачем переделывать биологию человека? ѕодразумеваетс€, что эта биологи€ несовершенна?
ќтветить — цитатой ¬ цитатник
Mila111111   обратитьс€ по имени —уббота, 04 »юн€ 2016 г. 15:44 (ссылка)

ќтвет на комментарий Boyarishnik

¬идимо так....
ќтветить — цитатой ¬ цитатник
 

ƒобавить комментарий:
“екст комментари€: смайлики

ѕроверка орфографии: (найти ошибки)

ѕрикрепить картинку:

 ѕереводить URL в ссылку
 ѕодписатьс€ на комментарии
 ѕодписать картинку