Меню
Назад Главная » Паранормальные новости » Футуристика » 2015 » Октябрь » 11

Мы должны уже сейчас думать, как обезопасить искусственный интеллект


Стивен Хокинг продолжает «крестовый поход» против искусственного интеллекта (ИИ).

Во время долгожданной акции «Спросите меня обо всём на Reddit» он написал, что работа над разработкой протокола безопасности ИИ должна вестись уже сейчас, а не в отдалённом будущем.

«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ― написал знаменитый физик, ― на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте начнём исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».

Хокинг использует известность для поддержки движения безопасности ИИ с 2014 г., когда он совместно с другими исследователями написал редакционную статью, где предупреждает об экзистенциальной угрозе, которые развитые машины представляют для человечества.

Другие известные личности в области технологий — Илон Маск и Стив Возняк, присоединились к Хокингу. Ранее в этом все трое подписали открытое письмо с призывом запретить автономное оружие или боевых роботов.

Ожидания, что человечество скоро создаст искусственный интеллект, существуют ещё с 50-х годов и не оправдали пока себя. Однако большинство учёных в области ИИ считают, что машины, равные по интеллекту человеку, появятся уже в этом веке.

Хокинг предупреждает, что изображение искусственного интеллекта в фантастических фильмах искажает представление о реальной опасности машин. В фильмах вроде «Терминатора» изображают демонических роботов-убийц, стремящихся уничтожить человечество по мотивам, которые у настоящего искусственного интеллекта не возникли. Они также упрощают снижение потенциального риска от ИИ (например, не строить киборгов).

«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект очень хорошо умеет выполнять свои задачи.

Если его задачи не совпадут с нашими, у нас возникнут проблемы, ― написал Хокинг, ― вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».

Ник Бостром, философ в сфере ИИ, фантазирует на тему сценариев о конце света, когда программа начинает работать в неверном направлении. Например, искусственному интеллекту дают задание разработать план по защите окружающей среды, а он, чтобы решить проблему экологии, решает уничтожить человечество.

Илон Маск уже выделил $10 миллионов на исследования в области безопасности ИИ, чтобы предотвратить появления разрушительного искусственного интеллекта вроде Skynet в «Терминаторе». Но Хокинг хочет, чтобы люди изменили в целом своё восприятие ИИ.

«Пожалуйста, скажите своим студентам, чтобы они думали не только над тем, как создать ИИ, но и как гарантировать его использование в полезных целях, ― ответил Хокинг преподавателю, который ведёт лекции по искусственному интеллекту, ― появление ИИ, который превосходит человека, станет либо самым лучшим, либо самым худшим событием в истории человечества. Поэтому важно, чтобы всё прошло, как надо».

Интересные новости:

Подписывайтесь на наш Telegram, «X(twitter)» и «Zen.Yandex», «VK», «OK» и новости сами придут к вам..

По материалам: http://epochtimes.ru

Подписывайтесь на наш Telegram-канал, «X(twitter)» и «Zen.Yandex», «VK», «OK» и новости сами придут к вам..


Никто не решился оставить свой комментарий.
Будь-те первым, поделитесь мнением с остальными.
avatar
Свежие статьи:
30.11.2025 в 19:06 ИИ и будущее работы: NVIDIA CEO о продуктивности и занятости
В последнее время относительно применяемости искусственного интеллекта (ИИ) идет много разговоров, многие из которых касаются влияния этих технологий на рынок труда. Широко распространено мнение, что ИИ способен автоматизировать значительную долю рабочих мест....

Читать далее

29.11.2025 в 11:04 Учёные предложили создавать стабильные червоточины методом «вырезать и вставить» из двух чёрных дыр
Учёные из Индии и США предложили революционный способ создания стабильной проходимой червоточины — соединить две чёрные дыры методом «вырезать и вставить», заполнив горловину экзотическим веществом с отрицательной энергией. Новая модель 2025 года впервые показ...

Читать далее

29.11.2025 в 10:53 Эта Кассиопея: ближайшая звёздная система с высокой вероятностью существования жизни

Международные астрономы завершили 30-летнее исследование системы Эта Кассиопея (19,4 световых года). Звезда Эта Кассиопея A похожа на Солнце, в системе нет газовых гигантов, а зона обитаемости остаётся стабильной миллиарды лет. Это делает её одним из самых ...

Читать далее


Советы:
Рецепт этого брауни взорвал сеть. Готовится без муки и сахара

Хорошая новость в том, что его можно приготовить без ущерба для фигуры. Брауни - это влажный и супер-шоколадный десерт, который никого не оставит равнодушным. Хорошая новость в том, что его можно приготовить без ущерба для фигуры.

...

Читать далее

Нужно ли хризантемы выкапывать на зиму: ответ специалистов?
Хризантему важно защитить от холодов и морозов, сделать это можно двумя способами – позаботиться о разумном укрытии, выкопать на зиму и правильно хранить. Всё зависит от сорта растения и зимы.

Читать далее

После кофе тревожность? Эксперт рассказала, что делать в таких случаях
Многие из нас не представляют без кофе свое начало дня. Но что делать, если после напитка не очень хорошо?

Читать далее