Элон Макс и Стивен Хокинг предсказывают восстание машин

Элон Макс и Стивен Хокинг предсказывают восстание машин

Назовите это примитивным паникерством, многие люди действительно боятся появления искусственного интеллекта (ИИ). Среди них и пугливые любители фантастики, и те, для кого технологии хлеб родной. Например, Элон Маск со Стивеном Хокингом.

Одно из предупреждений об опасности ИИ появилось недавно, в это воскресенье. И подписали его, кто бы вы думали? Бизнесмен и изобретатель Элон Маск и прославленный физик Стивен Хокинг.
 

«Люди должны обратить самое пристальное внимание на безопасность автоматизированных машин», — пишет Маск. «Стандарты автомобилей с искусственным интеллектом должны быть выше, чем на обычных авто».
 

И это, кстати, еще мягкое выражение. Не так давно Маск сравнил машины с ИИ с демонами. Да, Элон Маск. С демонами.



Под открытым письмом о безопасности ИИ также подписались теоретик сингулярности и писатель-фантаст Вернор Виндж, один из разработчиков спецэффектов «Матрицы» Джон Гэта, исследователи из Оксфорда, Кембриджа, MIT и Стэнфорда. К ним присоединились разработчики Google, Microsoft и Amazon. Свою лепту внес Институт Будущего Жизни, НКО, организованное со-основателем Skype вместе с профессорами MIT и Гарварда, описывает свою миссию как «поддержку исследований и инициатив, делающих жизнь безопаснее» и разрабатывают «варианты жизни человечества в мире новых технологий».

«Приоритеты исследования робототехники и искусственного интеллекта: открытое письмо» (это полное название обращения ученых) наполнено спокойными рассуждениями о важности безопасности, и не ясно, как именно нам навредит ИИ. Но это только на первый взгляд. В приложении о «приоритетах исследований» вы поймете страх теоретиков.


 

В разделе «контроль» говорится:
 

Для некоторых типов систем ИИ (особенно для автомобилей или оружия) было бы разумно оставить возможность человеческого вмешательства в управление. Иначе может сложиться ситуация, когда техника вообще сумеет обойтись без человека, стать самостоятельной.
 

Затем рекомендуется найти способ контролировать ИИ, которые вышли из строя:
 

Если проблема контроля за ИИ не может быть решена, было бы полезным создать специальные «контейнеры» для тех ИИ, которые вели себя нежелательным образом. 
 

Но самая яркая иллюстрация будущего ИИ описывается в ссылке на работу «Сто лет изучения искусственного интеллекта в Стэнфорде»:
 

Сто лет изучения искусственного интеллекта в Стэнфорде включает в себя «потерю контроля за системами ИИ». Особенно впечатляет возможность того, что «однажды мы можем потерять контроль за искусственным интеллектом, что приведет к расцвету суперинтеллектуальной расы — это напрямую угрожает человечеству.
 

Тем не менее, жизнь не всегда точно следует нашим прогнозам. Если разумные машины все-таки появятся, то к тому моменту, когда мы цифровым, химическим или механическим способом разовьем собственные способности. Даже если вы не верите в восстание машин, то сам факт того, что множество умнейших людей нашего времени серьезно рассматривают такую перспективу, должен заставить вас задуматься. 

 

14 января 2015


Метки

Новостиrobotsбудущеевосстаниеискусственный интеллектроботыстивен хокингтеслаэлон маск

6552