Шокирующее предупреждение Стивена Хокинга
Когда всемирно известный физик делал пугающие заявления о машинном разуме, их гораздо меньше принимали всерьёз, чем сейчас, спустя всего девять лет.
Физик-теоретик, космолог и астрофизик Стивен Хокинг. Обложка © Getty Images / Bruno Vincent
Когда в 2014 году вышел научно-фантастический фильм Transcendence (в российском прокате "Превосходство") с Джонни Деппом и Морганом Фрименом, Стивен Хокинг обратил внимание на его сюжет: там учёные воодушевлённо пытаются создать совершенный искусственный интеллект, а им мешают радикально настроенные террористы – противники технологического прогресса. Изначально разработчиками движут добрые мысли об утопическом будущем безграничных возможностей в медицине, науке и так далее, но в какой-то момент обнаруживается, что машинный разум позволяет внедряться в сознание человека и манипулировать им, и возникают, наконец, сомнения в том, что же, собственно, человечество себе породило.
Так вот, Хокинг вместе с коллегами из Калифорнийского университета и Массачуссетского технологического института тогда написали в Independent, что фильм создаёт обманчивое представление об угрозе искусственного интеллекте как о чём-то воображаемом, как просто об источнике вдохновения для фантастов.
Фото © Фильм "Превосходство", режиссёр Джек Паглен, сценаристы Кейт Коэн, Бродерик Джонсон / Kinopoisk.ru
— Это было бы ошибкой, и, возможно, нашей худшей ошибкой в истории, — пишут авторы статьи.
Учёные подчёркивали, что признают огромную потенциальную пользу развитого машинного разума, но призывали одновременно держать в голове и то, что вместе с этой потенциальной пользой вполне реально будут расти и огромные риски. Исследователи предупреждали, что в первую очередь эти риски проявятся в использовании искусственного интеллекта в военных целях — оружие с ИИ даёт большое преимущество.
— В ближайшей перспективе по всему миру вооружённые силы рассматривают вопрос внедрения автономных систем вооружения, которые способны самостоятельно выбирать и поражать цели, — отмечали учёные.
При этом, с точки зрения физики, нет абсолютно никаких ограничений на создание вычислительных систем гораздо более сложных, чем человеческий мозг, а при способности машинного ума к самообучению он сможет развивать и улучшать себя самостоятельно, объясняли Хокинг и его коллеги.
Все эти мысли всемирно известный физик окончательно оформил и выразил ещё более простыми словами в интервью BBC. Там он прямым текстом сказал, что усовершенствование искусственного интеллекта может оказаться самоубийством человечества.
Я думаю, что развитие полного (совершенного. — Прим. Лайфа) искусственного интеллекта может означать конец человеческой расы
Я думаю, что развитие полного (совершенного. — Прим. Лайфа) искусственного интеллекта может означать конец человеческой расы
Стивен Хокинг
По мнению учёного, в тот момент, когда ИИ научится развивать и улучшать себя сам, он начнёт это делать с немыслимой скоростью, абсолютно не идущей ни в какое сравнение с медлительной эволюцией человека.
— Люди, которые ограничены медленной биологической эволюцией, не смогут конкурировать и будут вытеснены, — сказал Хокинг.
Любопытно, что в 2014 году искусственный интеллект ещё был, в общем-то, только в кино, а в 2023-м любой человек уже может с ним беседовать в соцсетях о чём угодно, причём его ответы порой кажутся не такими уж автоматически, "бездумно" сгенерированными. Невольно возникает вопрос, а точно ли этот GPT — пока ещё ничего не соображающий болван или где-то там в виртуальном пространстве уже формируется осознающая себя личность, которую будет нельзя просто так взять и выключить.