Главная » Новости » Футуристика

Чтобы избежать гибели, человечеству необходимо посадить искусственный интеллект под замок

Добавлено: 25 Марта 2012   Просмотров: 4901   Комментариев: 18   Рейтинг: 5.0
Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики. В реальности, по мнению учёных,  подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.


Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, – уверен Роман Ямпольский,  учёный из Луисвиллского университета (шт. Кентукки), работающий в области компьютерных наук. Необходимо тщательно спланировать условия, в которых будет содержаться ИИ – так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.

«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, – полагает Ямпольский. – Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».

Появление новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны  для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.

Как устроить западню для Скайнет

Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы  –  ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам-людям тайные сообщения,  отбивая охлаждающими вентиляторами азбуку Морзе.

Посадить искусственный интеллект в компьютер без выхода в интернет – хороший способ помешать коварным планам ИИ по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.

Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.

«Уловка-22» (роман амер. писателя Дж. Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена. Но  для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, – считает Ямпольский. – Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, менять эти ограничения в соответствии с повышающимися возможностями ИИ».

Учёный Роман Ямпольский предложил использовать знак "@" или другие знаки, использующиеся сегодня для обозначения радиационной или биологической угрозы для указания на наличие опасности, связанной с искусственным интеллектом.

Никогда не приставляйте к машине охранника-человека

Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж. Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.

Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.

Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня  может обмануть человека и «сбежать» из заточения.

Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции – это всё же лучше, чем махнуть рукой и предоставить ему полную свободу. Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез – последствия будут непредсказуемы.

«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.

mixednews.ru

киборг, робот
Если вы видели что-то необычное, пришлите историю нам через форму обратной связи или на адрес newsparanormal@yandex.ru и мы опубликуем ее на этом сайте.
       
Понравился материал? Не понравился? Оцените! Рейтинг: 5.0/Проголосовало: 2
ПОХОЖИЕ НОВОСТИ:

СВЕЖЕЕ В НОВОСТЯХ:
СВЕЖЕЕ В БЛОГАХ:
КОММЕНТАРИИ (18)       ПРЕДЫДУЩИЕ КОММЕНТАРИИ 🡺
avatar
18 Subjective1 10:47, 05 Сентября 2015
14 Огненный Змей почти ухватил суть проблемы. Дело не втом, что искусственные системы агрессивны. В самом деле, испытывает ли нормальный человек ненависть к лягушкам. Думаю. что нет, но болота осушает.
так и с супер разумными искусственными системами. Поскольку доступные ресурсы ограниченны, то логично ограничивать их бессмысленную растрату, свойственную человеческому сообществу. Этого можно добиться за счет сокращения количества потребителей - людей. Контролировать поведение таких систем с помощью правил основанных на человеческой морали (Три правила робототехники) не представляется возможным, поскольку такие системы не будут воспринимать людей в качестве членов своего сообщества.
Вот такая будет реальность.
Избежать накого развития событий довольно просто. Нет необходимости создавать такие системы как независимые живые существа. Их нежно создавать как инструмент для расширения возможностей человеко и не более того. Этого можно добиться, если у таких систем не быдет возможности иметь свои собственные эгоистические желания.
Здесь, как всегда, проблема в нас - людях, а не в машинах.
Впрочем, давайте поздравим "14 ОгненныйЗмей" гениальной догадкой. Ура!!!
avatar
17 Хрум 23:01, 31 Марта 2012
Нет не понимаю. Эти америкосы вообще охренели! Весь мир под себя подмяли - теперь решили с "ВЕЛИКИМ И УЖАСНЫМ ИИ" бороться! Денег что-ли до х..я??? Или идеи иссякли?
avatar
16 Zim250 17:05, 30 Марта 2012
пока история и факты показывают, что человечеству больший вред приносит само человечество, а не машины и ИИ. Конечно плохо, когда к дебилу в руки попадает высокотехнологичная вещь, но чаще она находиться в нужных руках.
avatar
15 физрук 12:30, 27 Марта 2012
Если нехотите что бы он выхолил из под контроля то несоздовайте его,да изачем ему кого то захватывать ,что он будет делать,терминаторов штамповать как в кино... alien_wow я думаю все это бред!
avatar
11 Anubis 20:14, 26 Марта 2012
Люди должны относится так друг к другу, как хотят, чтоб к ним относились!
Вот и все, все остальное - словесный понос!
avatar
10 Alexei 19:47, 26 Марта 2012
То, что написано в этой статье безнадежно устарело. По крайне мере – «идеологически». Для развития человека, похоже, может наступить новый этап. Его называют сингулярностью в развитии (дальнейшей непредсказуемостью). И это не досужие выдумки фантастов. В быстрое развитие идей трансгуманизма (слияние человека и машины) вложены огромные деньги. Привлечены лучшие лаборатории мира. И дело идет без лишней рекламы. Результат ожидают к 2020-2025 годам. Суть «конечного продукта» - искусственный интеллект со «слепком личности» живого человека. Почти бессмертие. Причем быстрыми темпами идет работа по созданию искусственной кожи, не отличимой от настоящей. Создано «лицо» с управляемой мимикой. Первое «лицо» - женское. Промежуточный продукт – обычный человек с кучей разнообразных нанороботов внутри. Регенерация, усиление всех функций, выход в Интернет и мн. другое. Дошло до того, что специалисты откровенно посмеиваются над фантастами, придумывающими всяких киборгов. Мол, отстаете ребята от реальных результатов.
http://news.discovery.com/tech/nanotech-better-110927.html
avatar
9 Laska 18:58, 26 Марта 2012
Не понимаю! Зачем создавать искуственный интеллект подобный человеческому характеру и мыслящему как человек?Тогда нам точно-- кердык!В моем понимании: ИИ-это выполнение сложнейшей работы(умственной или физической) с которой человек долго справляется,а ИИ сделает это быстро.К чему эмоции ИИ???
avatar
13 ОгненныйЗмей 08:45, 27 Марта 2012
Если Мировое правительство есть на самом деле и мечтает оставить на Земле золотой миллиард,то ИИ и на его основе ндроиды крайне будут необходимы ему...Суди сама..кормить не нужно,поить тоже,мыть в душе тоже не надо(ресурсы,ресурсы)...зарплаты не требует...а то што ИИ взбунтоваться могет-тюююю...я вас умоляю...а то что мимику делают-ну сама подумай,на кого тебе будет приятнее смотреть-на красивого молодого человека,который утром наливает тебе кофе в постель или на 3PО из звездных войн...
avatar
5 Galvatron 12:59, 26 Марта 2012
Поиграйте в трилогию Mass Effect . Там по круче терминатора ИИ отжигает!
avatar
12 AnubisX 01:17, 27 Марта 2012
Да согласен...игра класс...поиграйте Smiley_green_alien_cool
avatar
4 Бизончег 11:34, 26 Марта 2012
Какой ИИ? Он вообще существует?
avatar
6 Flying 17:09, 26 Марта 2012
Представьте себе
avatar
3 ReDeR 07:10, 26 Марта 2012
бред! слышали про электронную бомбу! вырубает всё что имеет и хранит электричество, а такие бомбы есть у каждой страны! Википедия : Электромагнитная бомба, также называемая «электронная бомба» — генератор радиоволн высокой мощности, приводящих к уничтожению электронного оборудования командных пунктов, систем связи и компьютерной техники.
avatar
7 Flying 17:12, 26 Марта 2012
Экранирование
avatar
2 Lawlietb32 01:53, 26 Марта 2012
Quote
Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский

Какой же это тогда ИИ?

А вообще не согласен с товарищем "Ямпольским"... не нужно конечно "махать рукой" на угрозу ИИ, но затачивать в клетку возможного врага не вариант... история показывает много проб и ошибок, когда людей заковывали в цепи, а получалось не совсем всегда хорошо... я думаю, что к подобного рода программам нужно относиться как с равными и проводить что-то вроде тренинга или записи им в их подкорку основных истин... что-то вроде библии для машин (кто знает? может наша библия появилась подобным образом?)... Ну это конечно всё в теории... создатели подобного ИИ ещё далеки от 100% успеха... alien_wow
avatar
1 diestuv 01:23, 26 Марта 2012
Если ИИ выйдет из под контроля, то на Земле будет хаос, как в к.ф. "Терминатор".
avatar
8 Flying 17:16, 26 Марта 2012
ну как один из вариантов - да.

" — Друг мой, вас бережно охраняли Тиуа, теперь этот святой долг примем мы. Не бойтесь ничего: вас никто не обидит. У кого же поднимется рука тронуть вас — таких… таких…
Он на долю секунды замолчал, сочувственно подергивая языком, подыскивая подходящее слово, и то, конечно же, нашлось:
— Таких убогих…"
С.Лукьяненко - Вечерняя беседа с господином особым послом.
avatar
14 ОгненныйЗмей 08:51, 27 Марта 2012
что бы кто то вышел из под контроля,нужен мотив..какой мотив должен быть у ИИ???зависть,жажда денег.жажда власти???а если он и понятий таких не знает,че ему вымахиваться то,кому завидовать??
avatar

ЧИТАЙТЕ ТАКЖЕ: