03.12.2016  07:38  Суббота     16+

  08.05.2014    Чудеса науки    : 6131     : 8   Источник

Стивен Хокинг назвал искусственный интеллект величайшей ошибкой в истории

Известный британский физик Стивен Хокинг, в статье, вдохновленной фантастическим фильмом «Превосходство» (Transcendence) с участием Джонни Деппа в главной роли, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.

В статье, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета в Беркли и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, Хокинг указывает на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

"Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков", — цитирует британская газета Independent слова Хокинга.

Профессоры пишут, что в будущем может случиться так, что никто и ничто не сможет остановить машины с нечеловеческим интеллектом от самосовершенствования. А это запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В фильме с участием Деппа в этом значении употребляется слово «трансцендентность».

Только представьте себе, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия может оказать на людей искусственный интеллект. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких неприбыльных организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего.

По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

Другие новости по теме:
искусственный интеллект, Стивен Хокинг


Комментарии 8
avatar
8
Да не учёный Хокинг вовсе,неужели вы не видите?Больной,измученный человек.Его беда в том,что при исковерканном теле у него остался почти нетронутым болезнью мозг и он может мыслить.Каково это,всё понимать и ничего не мочь,кто-нибудь задумывался из вас?Но с годами изуродованное тело и полная неподвижность накладывают свой отпечаток на его мышление.Желание жить и желание умереть сошлись в его мозгу в непримиримой схватке,отсюда его такие апокалиптические прогнозы.Да и разве может быть иначе?

avatar
6
Этот Хокинг какой-то паникёр. То пугает пришельцами, что те нас поработят. То вот уже искусственным интеллектом начал пугать. А ещё учёный...

avatar
7
Кометой пугал, мол все умрём.

avatar
4
Существуют вирусы и антивирусы. Может кто то сказать что вирусы победили? Существует оружие разное - может кто то сказать что люди с определённым оружием победили? Существует добро и зло - может сказать кто-то что зло победило? Я к примеру хочу чтобы появились разумные роботы - пускай вкалывают вместо людей. Вроде Хокинг ратовал за Большой Взрыв, сейчас говорит что его не было.

avatar
3
alien_doof ИИ человеческого типа? Не стоит пугаться. Это не возможно.Что убедительно было показано знаменитым физиком Пенроузом совместно с
нейрофизиологами. Сознание, мышление человека относятся к т.н. «невычисляемым»
процессам, хорошо известным в кв. физике. Они не могут быть алгоритмизированы.
Кроме того, человек способен к алогичным мыслям и поступкам, что, подчас,
меняет Мир. Машинный ИИ на это не способен.

http://www.youtube.com/watch?feature=player_embedded&v=yFbrnFzUc0U

avatar
5
Бред.

avatar
2
Заголовок противоположный тексту! Поправьте что-ли... Не интеллект ошибка, а ошибка в том, что его недооценивают, т.е. угроза его создания, а то получается, что ошибка в том, что его напрасно пытаются создать, типа что это невозможно...

avatar
1
Это запросто.


Читать последние 100 комментариев
Имя *:
Email:
Подписка:1
Код *: