Опасен ли искусственный интеллект для человечества? Опасен ли искусственный интеллект для человека

И другие известные исследователи написали открытое письмо, призывая создать стандарты безопасности в области разработок искусственного интеллекта (ИИ). /сайт/

В частности они призвали к исследованиям и разработке системы надёжного управления, которая бы не позволила неисправному искусственному интеллекту нанести вред людям. «Необходимо проделать техническую работу, чтобы обеспечить полноценный контроль со стороны людей», ― говорится в письме.

Несмотря на умеренный тон письма, луддиты, боящиеся новых технологий, впали в панику. В ответ в прессе появилось множество интервью и высказываний учёных, рассеявших эти опасения.

Эндрю Нг, эксперт по ИИ из Baidu, заявил в интервью Fusion: «Я не представляю реалистичного сценария, как программное обеспечение, над которым мы работаем сегодня, может стать разрушительным».

В свою очередь журналист Скотт Александр составил список известных учёных, участвующих в разработках ИИ, которые говорили о потенциальной опасности со стороны ИИ.

Страх и опасения

Стюарт Рассер, профессор информатики из Калифорнийского университета в Беркли, сравнил разработку механизмов контроля над ИИ с принятием мер безопасности атомных реакторов.

«Некоторые считают, что этот вопрос не представляет опасности для человечества в ближайшие несколько сотен лет. Они забывают, что Лео Силард открыл цепную ядерную реакцию через 24 часа после того, как Резерфорд уверенно заявил, что атомная энергия никогда не будет получена», ― написал Рассел.

Рассел не одинок в своём мнении. В ходе опроса, проведённого Винсентом Мюллером и Ником Бостромом в 2014 г. среди 170 ведущих специалистов ИИ, оказалось, что 18% из них считают, что создание машины со сверхинтеллектом, станет «реальной катастрофой» для человечества. 13% заявили, что продвинутый ИИ окажет негативные последствия для людей. Чуть больше половины учёных сказали, что он окажет положительное влияние.

Хотя мнение специалистов о влиянии ИИ неоднозначно, большинство сходятся во мнении, что создание развитого ИИ ― только вопрос времени. По прогнозам, ИИ, равный человеку, будет создан уже в 2050 г. (50% вероятности) или к 2075 г. (90% вероятности). А 30 лет спустя после его создания появится искусственный сверхинтеллект, который превзойдёт человека во всех аспектах.

Сумасшедшие грузовики

Как может выглядеть восстание машин? В фантастических фильмах, вроде «Терминатора», «Робота», «Аниматрица», показана война людей с киборгами.

Судя по фантастическим фильмам, у многих может сложиться мнение, что потенциальной опасности легко избежать, В конце концов, по сути ИИ ― это просто программное обеспечение для компьютера.

Однако искусственному интеллекту необязательно иметь механическое тело, чтобы обрести власть в реальном мире: он просто может начать контролировать все наши повседневные электронные приборы.

Стивен Кинг представил такой сценарий в рассказе «Грузовики». В рассказе, написанном в 70-е годы, грузовики обретают сознание и начинают нападать на людей. Группа людей прячется от взбесившихся грузовиков. Грузовикам для работы по-прежнему требуется топливо, и они при помощи кода Морзе приказывают людям заправить их, иначе бульдозер снесёт их укрытие. Люди подчиняются.

История заканчивается видением рассказчика о том, что грузовики поработили человечество и навязывают везде свои ценности, например, заставляют строить магистрали по всему миру. Из мира фантазий его выводит звук пролетающего в небе самолёта.

Рассказ Стивена Кинга казался футуристическим в эпоху, когда он был написан, но он не так далёк от реальности современного мира. Самоуправляемые грузовики уже существуют, и в будущем компании с целью экономии могут заменить водителей на автономную навигационную систему.

Взлом Sony в прошлом году демонстрирует, что наши информационные системы становятся всё более уязвимыми. Это одно из следствий всё большей компьютеризации инфраструктур.

Однако пока нет причин для беспокойства. Искусственному интеллекту предстоит проделать долгий путь, прежде чем он сможет сравниться с мозгом человека. Пример с самоуправляемыми грузовиками хорошо демонстрирует это. Пока они ещё слишком несовершенны, чтобы самостоятельно ездить по переполненным городским улицам.

Установили бы Вы себе на телефон приложение для чтения статей сайта epochtimes?

1 754

В настоящее время команда из 26 международных экспертов подтвердила, что развитие искусственного интеллекта (ИИ) является явной и настоящей угрозой, и правительства и крупные корпорации должны опасаться многочисленных угроз этой технологии. Доклад экспертов был опубликован Университетом изучения экзистенциальных рисков в Оксфордском университете и рядом других известных организаций. В отчете предупреждается о ряде злонамеренных видов использования ИИ, которые могут стать одной из самых больших угроз для человечества. Это цифровая безопасность, физическая безопасность и политическая безопасность.

Во времена, когда люди общаются через Интернет, и программы, которые могут разумно реагировать и притворяться человеком. Платформы, такие как Twitter и Facebook, сегодня забиты ботами. Многие люди, которые являются друзьями в социальных сетях, могут быть ботами! Twitter оценивает количество профилей ботов между 25-50 миллионами! В 2015 году в Facebook уже было около 200 миллионов пользователей ботов! Тем временем ученые даже создают «социальные ботнеты», которые представляют собой частную армию автоматических «друзей». Часто тысячи этих ботов обслуживает ботмастер. Эти боты имитируют поведение обычных пользователей. В профилях этих ботов появляются сообщения и сообщения от других ботов, и кажется, что все это происходит от реальных людей. Это неверно, на самом деле продукты рекламируют и распространяют разные взгляды и политические взгляды. Боты также получают много личной информации, которая затем оценивается, сохраняется и продается. Если вы используете эти бот-сети с плохими намерениями, Вы можете буквально вызвать хаос и украсть много информации. Сложные алгоритмы могут использоваться для имитации любого поведения пользователя и для охвата и проникновения определенных профилей.

Тем временем, чатботы разработаны так, что они могут имитировать стиль написания дружественных пользователей. Этот метод создает доверие, и программа пытается получить доступ к как можно большему количеству компьютеров. В ближайшие несколько лет будет легко подделать даже видео и телефонные звонки с поддельными изображениями и имитированными голосами. С помощью этой процедуры любое учреждение может быть обмануто.

Следующую угрозу мы видим в современных роботах, которые в скором времени будет использоваться повсеместно. Компьютерные хакеры и ИИ (искусственный интеллект), вероятно, могут легко взломать эти устройства и злоупотреблять ими в своих целях даже в качестве оружия. Еще более опасным было бы, если ИИ будет включен в автоматизированных системах вооружения, например, в удаленных снайперских винтовках и автоматических системах ПВО.

Другая серьезная угроза исходит от программ анализа, которые ищут в Интернете «поддельные новости» на невероятной скорости и могут быстро найти любого нежелательного автора. Если это правительственный противник, вы можете немедленно найдены и наказаны. Тогда у правительственных новостных порталов и газет возникнет проблема, потому что вы сможете сразу обнаружить любую мистификацию. Уже возможная манипуляция видео с помощью AI уже бросает тёмные тени в ближайшее время, все становится манипулируемым, и никто не может доверять никому и никому больше — особенно, если AI находится в игре. Используемая правильно, эта технология превращается в невероятно мощное оружие и одну из самых больших угроз для всего человечества. Когда искусственные интеллекты достаточно мощны, они могут буквально контролировать и манипулировать всем. Манипуляция была бы быть безграничной. Она могла легко и свободно менять любую электронную книгу, газетную статью и исторический фильм, и никто не заметил бы этого. Вся история и все важные факты могут быть ненавязчиво манипулированы и изменены навсегда. Это не создает проблемы для ИИ, чтобы имитировать лица и голоса политиков, что может вызвать бесконечные споры. Если ИИ становится достаточно умным, человек больше не может противостоять ему. По мнению разработчиков искусственного интеллекта, они, вероятно, станут в миллиарды раз более умными, чем люди!

В докладе экспертов обсуждается ряд предложений по предотвращению подобных сценариев. Первым вариантом будет использование супервизоров для управления разработчиками KI, чтобы они не могли использовать эту технологию для вредоносных целей. Немедленные действия предпринимаются, когда предполагаются вредные намерения и события. Таким образом, для обеспечения безопасности должны быть созданы стандартизированные методы. Со временем в этих контролях и обсуждениях по безопасности будут задействованы все больше экспертов. Только совместная ответственность и прозрачность должны гарантировать, что ИИ не наносит большого ущерба.

Как обеспечить такую ​​вещь? Конкурирующие компании, разработчики систем вооружений и конкурирующие государства всегда будут стараться оставаться на шаг впереди своих конкурентов в развитии ИИ. Поэтому эти предлагаемые меры не будут эффективными. Вы должны подготовиться к худшему уже сейчас.

Генераторы изображений, которые работают с алгоритмами, которые поддерживаются искусственным интеллектом, уже создают фотореалистичные грани. Компания NVIDIA использует метод GAN, который производит очень реалистичные фотографии людей, которых не существует. Даже человеческие голоса теперь могут быть полностью скопированы с использованием новых технологий. Вот что делает WaveNet, например, в Google DeepMind контролируется. Даже алгоритм Lyrebird теперь может копировать и подражать человеческому голосу, если у вас есть только одна минута записанного звука, как в телефонных разговорах. Следующий шаг, который уже предпринят, — это то, что компьютеры могут распознавать и реагировать на реальные человеческие эмоции. Граница между человеком и машиной исчезает.

Конечно, вся эта технология уже используется для вредоносных целей, таких как Facebook , для перепрограммирования и управления пользователями. Шон Паркер, один из основателей Facebook, нашел четкие слова в интервью. Паркер считал, что Цукерберг заблокировал свой профиль, показав, что Facebook может повредить мозгу своих пользователей! Паркер отметил, что социальные платформы, подобные Facebook, буквально меняют поведение людей и общество. Все это за счет производительности, и Бог знает, что он делает с мозгами наших детей. Facebook поставил перед собой задачу увлечь внимание пользователей, чтобы они проводили большую часть своего времени на платформе, делая их неотъемлемой частью своей жизни. Все это порождает зависимость от распределения дофамина с «симпатичными» и комментариями! Это игра с человеческой психологией.

Конечно, эти разработчики получают свои спецификации, и все идет по вредоносной программе. Хотя такие люди, как Цукерберг и Паркер, миллиардеры, они просто играют свою небольшую роль в большой игре. Google, Facebook, Youtube и т. Д. контролируются из других источников. Бывший офицер ЦРУ Роберт Дэвид Стил смог определить и назвать нескольких таких вдохновителей :

  • «Глубокое государство» со своими семьями-банкирами, включая Ватикан, Лондон и Уолл-стрит
  • Сионистское правительство Израиля и Моссад в связи с американскими сионистскими организациями AIPAC и Антидиффамационной лигой (ADL)
  • Руководители крупных медиакомпаний и киностудий, а также их финансист Джордж Сорос
  • Платные субподрядчики, которые изобретают диффамацию и лгут по заказам
  • Платные интернет-тролли, которые часто состоят или набираются у израильтян или членов ADL
  • Добровольные тролли, которые слишком глупы, чтобы понять, кто и что они действительно слушают («Саяним»)
  • Наконец, эти тролли создают алгоритмы, которые действуют полностью за пределами человеческой этики, контроля
  • «Блокировка теней» этих программ и нейтрализация целевых лиц в сети посредством автоматизированной службы троллей и алгоритмов
  • Отсутствие законопроектов и стандартов в Интернете
  • Принятие всех этих мер ИИ

Человек из ЦРУ Роберт Дэвид Стил говорит о #GoogleGestapo . Эти ложные отчеты могут привести к блокировке учетной записи пользователя или профиля на Youtube. Другие виды использования включают отрицательные спады или отзывы клиентов для продвижения или уничтожения продукта. Стил говорит, что все тролльские армии используются и оплачиваются за «преследование толпы» (групповое преследование). Таким образом, например, вы можете уничтожить канал Youtube с глупыми комментариями или лгать, чтобы заблокировать его. Между тем, большинство операторов взрывных каналов или альтернативных носителей вынуждены отключать комментарии. Своими открытиями Стил должен был испытать, что большинство его информации были затронуты преследованием толпы, хотя он был номинирован на Нобелевскую премию мира в январе 2017 года!

Роберт Дэвид Стил уверен, что все эти пути приведут к борьбе с диффамацией (ADL). Этот объект, похоже, является специальным сервисом для шпионажа в социальных сетях. Стил уверен, что ADL вместе с сионистскими организациями в Израиле усовершенствовали искусство «цифрового убийства» в первые годы существования социальных сетей. С малейшей критикой насилия в отношении палестинцев или бойкотом призывает к израильским товарам в социальных сетях, сразу поступают сообщения о троллях для «высказываний ненависти» и т. П. Критики сразу же блокируются, запрещаются или блокируются, или в случае компаний получают наихудшие возможные оценки.

Но все это служит только еще одной, еще более злой цели — появлению нового бога, искусственного интеллекта. Согласно идеям этих силовых одержимых кругов, ИИ должен не только контролировать, но и управлять и поклоняться! В Силиконовой долине, где живут все крупные технологические компании, уже создана новая религия — Церковь Искусственного интеллекта (Путь Церкви будущего). Эта церковь поддерживается различными гуманитарными организациями, работающими на трансгуманизм. Многие христиане видят в этих событиях появление Антихриста. Энтони Левандовски, основатель Церкви, говорит, что настало время для ИИ, который гораздо умнее любого человека, иметь управление на Земле. В принципе, это ничего нового. Элиты планируют восстановление своего ложного бога, который уже существовал в «великом случае» человечества перед потопом. Поэтому трансгуманисты также говорят о воссоздании суперинтеллекта. Большой случай имел отношение к «падшим ангелам», которые доверяли людям тайное и запретное знание перед потопом. Это знание испортило все человечество и принесло войну и разрушения.

Другая организация, которая пропагандирует трансгуманизм, называется Человечество + . Там преследуют цель превратить нормальных людей с помощью интерфейсов AI, нанотехнологий и человеко-компьютерных интерфейсов, чтобы в итоге из него вышли совершенно разные существа, так называемые «постчеловеческие существа». Некоторые каббалисты, такие как раввин Йосеф Бергер, уверены, что, согласно древним пророчествам, «конец исправления» неизбежен, это высшая точка духовной целостности. С появлением Антихриста или «Армила», как его называют в Торе, вскоре придет к появлению еврейского Мессии. Однако это не может быть о Иисусе Христе. Многие эксперты считают, что темные элиты нарочно создают хаос на Земле, чтобы всеми силами выполнить это пророчество. В древних пророчествах написано, что Армил появился на свет через своеобразную девственную концепцию, которой раньше никогда не было. Поэтому вполне возможно, что Армил мог быть первым трансгуманистом, обладающим «богоподобными» полномочиями. Он описан в Священных Писаниях как чудовище, которое лысое и имеет большой и маленький глаза. Он должен быть глухим на правое ухо, а его правая рука повреждена. Левая рука должна быть намного длиннее, чем обычно.

Этому ложному богу должны поклоняться во всем мире в течение некоторого времени. Управляемые СМИ уничтожат последние истины, и все логическое будет казаться абсурдным. Искусственные интеллектуалы Alexa of Amazon или Google Home отвечают почти по каждому вопросу. Вы можете ответить, кто был Буддой или Мухаммедом, но не тот, кто есть Иисус Христос! Разве это не странно? Вы думаете, что стоит упомянуть? Здесь вы можете увидеть, какая антихристианская, антилиберальная и античеловеческая программа стоит за Google.

Чрезмерное использование и слепое доверие к сервису Google уже стало очевидным для многих людей. Для людей больше не важно чему-то научиться через постоянную возможность получения любой желаемой информации в любое время и в любом месте. Исследование, проведенное в Гарвардском университете с 2011 года показало, что люди не помнят информацию в долгосрочной перспективе, если они знают, что вы можете найти их в Google в любое время. Это явление было окрещено «эффектом Google». Когда задавали вопросы испытуемым, они рефлексивно сначала думали об Интернете и компьютере, а затем искали знания в своих воспоминаниях. Это означает, что способ, которым мы помним вещи, изменился. Многие теперь называют это «цифровой амнезией». Сегодня многие люди буквально зависят от своих смартфонов и поэтому больше ничего не помнят. В отличие от прошлого, сегодня нас постоянно бомбардируют информацией, и нашему мозгу нужно научиться справляться со всей этой информацией. Конечно, все эти данные не могут быть сохранены в сознании.

Имеются также новые результаты исследований по психологическим, умственным и социальным последствиям новых цифровых технологий и социальных сетей. Особенно для подростков эти технологии имеют фатальные последствия. Постоянная доступность информации лишает детей способности мыслить независимо, когда приходит время, чтобы научиться этому развивать эту способность. Эта проблема хорошо известна. Многие люди в Силиконовой долине защищают своих детей от этих технологий и отправляют их в школы, где им запрещено пользование интернетом и смартфонами.

Исследования показали, что дети, подверженные этому постоянному потоку информации, находятся с более плохим состоянием здоровья и более подвержены стрессу. Чем больше времени дети проводят в Интернете, тем меньше времени остается для реального социального взаимодействия. Это отражается в умах и благополучии. Отсутствует прямая связь, что означает, что выражение лица и язык тела больше не могут быть правильно истолкованы. Устранение длинных разговоров теряется. В результате стресс и беспокойство в ситуациях, которые эмоционально неуместны. Найдя какой-либо ответ в Интернете, дети больше не могут самостоятельно мыслить и сами найти ответ на вопрос и сосредоточиться на вещах, требующих длительного периода концентрации и усилий.

В университетах уже есть большие проблемы, потому что смартфоны всегда и везде используются. В результате студенты могут концентрироваться все меньше и меньше, а успехи в обучении уменьшаются. Можно сказать, что такие устройства не делают умных, но глупых. Все больше и больше школ теперь запрещают использование этих устройств для восстановления мышления учащихся. Частое использование Google явно снижает способность самостоятельно решать проблемы. Поэтому цифровые службы должны быть тщательно дозированы.

Существует также прямая корреляция между чувствами онлайн-времени и несчастья. Подростки, которые используют свой смартфон очень часто, обычно недовольны. Студенты, которые проводят больше времени на занятиях спортом, чтением и прямым общением, обычно счастливее. Кроме того, постоянное использование социальных сетей делает их несчастными. В результате многие дети сегодня менее мятежны, более терпимы и недовольны и совершенно неподготовлены к взрослой жизни! Полное воздержание от цифровых медиа также не радует. Исследования Дети счастливы, когда они не в сети не более одного часа в день. Исследования продолжаются с 1990-х годов, и с 2012 года наблюдается резкое снижение счастья среди населения.

Другие исследования теперь показывают, что все устройства, использующие Wi-Fi и другие беспроводные источники излучения, могут не быть канцерогенными! Особенно опасны мобильные телефоны, мобильные башни, смарт-счетчики, WiFi-маршрутизаторы и т. Д. В течение многих лет существует спор об опасностях этих устройств и проводились всевозможные исследования.

Многие ученые теперь утверждают, что все эти устройства определенно раковые. Сигналы, исходящие от этих устройств, как сообщается, являются канцерогенными. Исследования также показали, что одна треть населения уязвима для беспроводной радиации. Даже если рак не развивается во всех случаях, он вызывает болезнь из-за микроволн. Воздействуют даже на растения и животных. Беспроводное излучение и электромоз могут даже быть причиной изменения климата. Излучение вызывает все эти негативные чувства. Производителям все равно, потому что с этой технологией зарабатывают миллиарды.

Несмотря на то, что люди становятся все более недовольными новыми технологиями, они теперь пытаются преподавать этику AI, интернализируя индийские санскритские тексты. Эти тексты являются ведическими и старше, чем индуистская религия. Ученые теперь анализируют древние тексты и ищут математические методы для разработки стандарта, который позволит ИИ преподавать этику. Эта процедура в настоящее время находится в Техническом университете Вены. Они пытаются выяснить, распознают ли машины определенные типы поведения людей и поэтому могут решить, правильны они или нет. Цель состоит в том, чтобы создать логику для машин, чтобы они их понимали. Математическая логика должна позволить ИИ решать философские проблемы.

Все это не может быть совпадением. В этом году будет введен новый стандарт мобильной радиосвязи 5G, который приведет к значительному радиационному облучению. Плохо то, что планируется постоянно выставлять всю поверхность земли на это опасное излучение. Это эквивалентно целенаправленному уничтожению всех биологических форм жизни! Никто, кто умственно здоров, действительно этого не хочет. Кажется, за этим стоит план. Должна ли Земля и человеческое сознание трансформироваться и быть ИИ за ней, или это действительно разрушает всю планету только ради прибыли? Постоянное искусственное облучение неестественными электромагнитными полями создает гигантское волнение на планете и все больше выводит его из гармонии и равновесия. Должна ли планета действительно трансформироваться в нечеловеческое сознание и должна ли быть уничтожена вся биологическая природа и управляться миром, полностью доминирующим в технологии в смысле трансгуманизма?

5G — идеальный инструмент для массового изменения человеческих мозговых волн

Естественные электромагнитные поля постоянно достигают нас от Солнца, которое связано с галактическим центром. Солнце регулирует магнитное поле Земли, и это влияет на организм человека и его ДНК. Наука обнаружила, что наша солнечная система недавно переместилась в область интенсивного излучения. В течение нескольких лет вы можете наблюдать, что вся солнечная система меняется. Эта высокая энергия приводит к сильным изменениям, также в сознании людей. Согласно древним традициям и пророчествам, эта сильная энергия вызывает изменение сознания и приводит к «золотому веку». Многие инсайдеры говорят, что определенные силы на Земле не хотят нашего роста сознания. Человек хочет удержать человечество еще дольше в своей психиатрической тюрьме. Некоторые организации питаются нашей энергией. В ходе увеличения сознания некоторые люди могут сделать интеллектуальное восхождение на более высокие уровни. Темные силы хотят предотвратить это любой ценой. Вот почему они пытаются оградить нас от природных энергий и заставить нас болеть и контролировать их своим вредным излучением. В конечном счете, эти попытки будут безуспешными, высокие энергии и сама планета будут делать то, что необходимо.

Но до этого изменения почти наверняка придет к массовому вымиранию. В настоящее время оно создало новое генетическое оружие массового уничтожения, которое может уничтожить целые расы и виды. Это так называемый «Джин-Диск». С помощью Gene Drive вы можете перепрограммировать последовательности генов и заставлять организм копировать эти последовательности. Таким образом, вы можете перепрограммировать все человеческое существо и его генетику, так сказать. Тот факт, что эти измененные гены также передаются потомству, теоретически можно перепрограммировать всю земную популяцию сегодня. Одним из способов распространения этих последовательностей генов являются комары и москиты, которые специально разводятся и высвобождаются в дикой природе. Вероятно, они планируют распространять ген изобретательности, чтобы бороться с перенаселением или распространять опасные болезни.

Вся программа финансируется американским органом обороны DARPA. Были также опубликованы документы, в которых Фонд Билла и Мелинды Гейтс распределял много денег лоббистам, чтобы предотвратить запрет на такие исследования. Другим методом применения является CRISPR. Это позволяет вырезать определенные последовательности ДНК и манипулировать генами, которые должны быть включены. Таким образом, теоретически можно изменить собственное тело по своему желанию. В 2029 году они планируют освободить мутантных комаров, чтобы избавиться от всех этих раздражающих комаров. Предполагается, что они заражают всю популяцию комаров и, таким образом, гасят сами себя. Это должно помочь уменьшить распространение малярии. Если эта попытка преуспеет, то в Австралии уже были нацелены другие язвы, мыши или агути-жаба. Поскольку DARPA выполняет исследовательскую работу, можно предположить, что военные цели находятся на переднем плане. Если что-то пойдет не так, эти измененные последовательности генов могут распространиться на множество разных живых существ. Готово ли человечество вмешиваться так глубоко в план творения?

Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.

Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, - они будут опекать нашу жизнь и здоровье. Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора. А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.

Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество - где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?

Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) - одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом. Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, - рассуждают весьма серьёзные учёные. Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.

Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно - но это же еще и умная машина, понимающая свою важность и необходимость.

Но как отреагирует машина, когда её конечная цель - изготовление скрепок - потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?

Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем. Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни. А что может произойти, когда контроль над этим получит развитый интеллект?

Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми - это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.

Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.

Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное. С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг. Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.

Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, - высказывает учёный своё отношение к ИИ.

Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.

Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения "дивидендов" от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта. И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? - Вот беспокойство будит какой вопрос. Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!

В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна. В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать - это возможности биологического мозга. А без этих компонентов какой бы разумной машина не была, она остаётся машиной - супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.

Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет. Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить». Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».

Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого - это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый. В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ. «В наступившем, 2016 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», - считает Иден.


Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля. К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум. При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию». Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».

Стоит отметить, что угрозу со стороны ИИ видят многие ученые. Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.

Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим. Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего». Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми. По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное .

Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач. Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства. Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.

«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», - поясняет известный ученый. В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения. «Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию - вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить. Давайте не будем ставить людей на место муравьев», - отметил ученый.

Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» - стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем - замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.

Помимо Хокинга и Маска, свои подписи под письмом поставили нобелевский лауреат и профессор физики MIT Фрэнк Вильчек, исполнительный директор Института исследований машинного интеллекта (MIRI) Люк Мюльхаузер, а также многие специалисты из крупных IT-компаний: Google, Microsoft и IBM, а также предприниматели, основавшие компании Vicarious м DeepMind, специализирующиеся на разработке систем ИИ. Составители письма отмечают, что они не ставят своей целью напугать общественность, но планируют подчеркнуть как положительные, так и отрицательные стороны, которые связаны с созданием искусственного интеллекта. «В настоящее время все сходятся во мнении, что исследования в области ИИ уверенно прогрессируют, а влияние ИИ на современное человеческое общество будет только усиливаться, - сообщается в письме - открывающиеся перед человеком возможности огромны, все, что может предложить современная цивилизация, было создано интеллектом человека. Мы не в состоянии предсказать, чего нам удастся достичь, если интеллект человека можно будет помножить на средства ИИ, однако проблема избавления от бедности и болезней уже не представляется бесконечно трудной».

В современный быт уже включены многочисленные разработки в области искусственного интеллекта, включая системы распознавания изображений и речи, беспилотные транспортные средства и многое другое. Согласно оценкам наблюдателей из Кремниевой долины, в данной области сегодня реализуется более 150 стартапов. При этом разработки в этой области привлекают все больше инвестиционных вложении и все больше компаний наподобие Google развивают свои проекты на базе ИИ. Поэтому авторы письма полагают, что настало самое время, для того чтобы уделить повышенное внимание всем возможным последствиям наблюдаемого бума для экономических, социальных и юридических сторон человеческой жизни.

Позицию о том, что искусственный интеллект может представлять опасность для человека, разделяет и Ник Бостром профессор Оксфордского университета, который известен своими работами об антропном принципе. Данный специалист считает, что ИИ подошел к той точке, за которой последует его несовместимость с человеком. Ник Бостром подчеркивает, что в отличие от генной инженерии и изменений климата, для контроля которых правительства выделяют достаточные суммы, «ничего не делается, для того чтобы контролировать эволюцию ИИ». По мнению профессора, в отношении искусственного интеллекта в настоящее время ведется «политика правового вакуума, который нужно заполнить». Даже такие технологии, как беспилотные автомобили, которые представляются безобидными и полезными, вызывают ряд вопросов. К примеру, должен ли подобный автомобиль совершать экстренное торможение, для того чтобы спасти своих пассажиров и кто будет отвечать в случае ДТП, совершенного беспилотным автомобилем?

Рассуждая над потенциальными рисками, Ник Бостром отметил, что «компьютер не в состоянии определить пользу и вред для человека» и «не имеет даже малейшего представления о человеческой морали». Помимо этого, циклы самосовершенствования в компьютерах могут происходить с такой скоростью, за которой человек просто не сможет уследить, и с этим также почти ничего нельзя сделать, говорит ученый. «На том этапе развития, когда компьютеры смогут думать сами за себя, никто не сможет точно предсказать, приведет ли это к хаосу или существенно улучшит наш мир, - заявил Ник Бостром, в качестве примера приведя простое возможное решение компьютера - отключить в странах с холодным климатом отопление для оздоровления людей и повышения их выносливости, которое «может прийти в голову искусственному интеллекту».

Помимо этого, Бостром поднимает и проблему чипирования человеческого мозга с целью повышения нашего биоинтеллекта. «Во многих отношениях такая процедура может быть полезной, если все процессы будут контролируемыми, но что произойдет, если вживленный чип сможет перепрограммировать сам себя? К каким последствиям это может привести - к возникновению сверхчеловека или к появлению компьютера, который будет лишь выглядеть человеком?» - задается вопросами профессор. Способы, при помощи которых компьютеры решают человеческие проблемы, очень сильно отличаются от наших. К примеру, в шахматах человеческий мозг рассматривает лишь узкий набор ходов, выбирая из них самый лучший вариант. В свою очередь компьютер рассматривает все возможные ходы, выбирая лучший из всех. При этом компьютер не рассчитывает огорчить или удивить своего противника по игре. В отличие от человека, играя в шахматы, компьютер может сделать хитрый и тонкий ход лишь случайно. Искусственный интеллект может посчитать наилучшим способом - устранить ошибку из любой системы за счет удаления оттуда «человеческого фактора», но, в отличие от человека, робот не готов совершать подвиги, которые спасли бы людям жизнь.

Помимо всего прочего, рост количества умных машин представляет собой этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными изменениями. Работа со временем станет уделом высококвалифицированных специалистов, так как практически все простые задания смогут взять на себя роботы и другие механизмы. Ученые считают, что за искусственным интеллектом «нужен глаз да глаз», чтобы наша планета не превратилась в мультипликационную планету «Железяка», которая была населена роботами.

В плане все большей автоматизации процессов производства будущее уже наступило. Всемирный экономический форум (ВЭФ) представил свой отчет, согласно которому автоматизация приведет к тому, что еще до 2020 года более 5 миллионов человек, трудящихся в самых разных областях, потеряют свое место работы. Таково влияние роботов и роботизированных систем на нашу жизнь. Для составления отчета сотрудники ВЭФ использовали данные о 13,5 млн. работников из различных стран мира. Согласно их данным, к 2020 году суммарно пропадет потребность в более чем 7 миллионах рабочих мест, тогда как ожидаемый рост занятости в других отраслях составит всего чуть более 2 миллионов рабочих мест.

Источники информации:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html

Отсутствием контроля.

Если мы можем контролировать эту технологию - проблемы нет, но в данный момент мы пока не способны это обеспечить, мы не знаем, куда она будет двигаться. Это основная проблема.

Сам по себе ИИ прекрасен, но одна из главных его задач - учить компьютер обучаться самому. Когда вы учите компьютер самостоятельному обучению, вы позволяете ему развиваться, а сейчас он в состоянии совершить миллиарды исчислений за секунды, в то время как мы способны решить всего лишь одну задачу за несколько часов. Понимаете? Это значит, что ответ практически мгновенный, и для нас это безумие.

С того момента, как ИИ появился, перед нами открылось многое, и оно может быть хорошим или плохим, совсем как ребенок. Все зависит от влияния среды, традиций, но мы не можем их создать, не можем их контролировать. Поэтому есть возможность потери контроля.

Нужен ли нам ИИ? Я не думаю, что это хороший вопрос. В таком случае, нужен ли нам телевизор? Хороший вопрос: что мы сделаем с этой технологией. В начале 1990-х было большое движение людей, борющихся против технологий в целом, но если обратить внимание на детали, они боролись не против технологий, а против потери своей социальной роли, работы и так далее. То есть, как и с любой технологией, мы должны в первую очередь думать о том, куда мы движемся, и как технология влияет на общество. Если она подходит нам, она могла бы решить множество вопросов, помочь спасать людей, жизни. Мы теряем миллионы жизней в год из-за автомобилей, 400000 только в США. Неблагоразумные водители очень опасны, и передача управления машиной ИИ могла бы спасти сотни тысяч жизней. Это уже говорит о том, что эта технология нам нужна.

Потерю контроля тоже нужно рассматривать в перспективе. Какие есть опасности? Куда мы движемся? Что мы имеем сейчас? Мы не можем потерять контроль над ИИ по щелчку пальцев. Это происходит постепенно, и если произойдет, то да, мы потеряем контроль. Но у нас есть множество технологий, которые помогут нам остановить этот процесс. Опять же, это вопрос проведения черты между хорошим и плохим. Сегодня мы можем делать с технологиями практически все, что угодно. Мы прямо как Амадей. Но, если спросить меня, мы не можем делать все, что угодно, по соображениям этики. Есть четкая граница, которая очевидна для нас, но если мы идем по этому пути, мы должны четко осознавать, что все страны способны провести эту черту между тем, что хорошо, и что плохо. Это значит, что эта технология должна носить глобальный характер, и мы - то общество, несущее за нее ответственность. Это главная проблема, и нам необходимо сосредоточиться на том, какое влияние она окажет. Интересно, что в некоторых северных странах, например, Швеции, Норвегии и так далее, есть Министерство Будущего. Цель этого министерства - предсказывать, как то, что мы делаем сейчас, повлияет на население, на социум, на окружающую среду, и как мы можем это контролировать.

Что касается нас, футуристов, для каждой технологии и каждого рынка у нас особые предсказания. Мы не аналитики, мы ничего не ожидаем, но достаточно хорошо представляем, что могло бы произойти в ближайшие пять лет, знаем об основным сферах влияния технологий, хотя это все гипотезы. Но это не главное, главное - что мы делаем с этим. Я не могу сказать точно, что произойдет через пятнадцать лет, но я вижу основные тренды и могу сказать, какой тренд какое влияние окажет на людей, на бизнес и так далее. Мы должны двигаться в этом направлении.

Для бизнеса мы все рассчитываем на 10 лет вперед, потому что необходимо понимать, где мы будем спустя это время.