МОСКВА, 14 июля, ФедералПресс. Развитие искусственного интеллекта у многих вызывает опасение. В частности, Илон Маск считает, что в Китае могут создать сверхразум, который захватит власть. Футуролог Александр Кононов объяснил, чем угрожают миру такие разработки и как можно избежать их выхода из-под контроля.
«Если постоянно и последовательно выстраивать модели угроз на каждом шаге создания искусственного интеллекта, то мы сможем с ними справиться», – передает «Общественная служба новостей» слова эксперта.
По словам Александра Кононова, проблема любого технологического прогресса заключается в поведении тех, кто отвечает за безопасность. Нередко происходит так, что под давлением руководства они замалчивают потенциально опасные проблемы. Он привел в качестве примера документальные фильмы об атомной энергетике, где проиллюстрировано, как «безопасники» были готовы убивать людей, вскрывающих угрозы.
Эксперт отметил, что опасения Илона Маска могут быть связаны с тем, что люди не смогут вовремя узнать о существующей угрозе, поэтому подход к их выявлению нужно менять.
По словам специалиста, важно вовремя выявлять существующие угрозы и коллективно принимать соответствующие меры для их устранения.
«Озабоченность у Маска вызывает именно недостаточная свобода оппонирования. И страх, который существует в подобных обществах. Потому что, если проблема АЭС вылилась в катастрофу в Чернобыле и Фукусиме, то здесь катастрофа может быть еще более масштабная, поскольку искусственный интеллект, выйдя из-под контроля, может устроить какие угодно катастрофы», – поделился футуролог.
Футуролог также объяснил, что сверхразум обязательно будет злым в том случае, если его будут настраивать для работы в военных целях, борьбы с врагами, а когда ИИ выйдет из-под контроля, он ополчится против создателя и даже всего мира.
Игнорировать такие угрозы нельзя, как и верить в то, что выход из-под контроля невозможен.
«У нас есть, вон, целые философские системы. Допустим, ИИ Гартманом увлечется, а Гартман, с которым боролись русские космисты в свое время, считал, что человечество должно вымереть. Он говорил, что разумные люди должны самоуничтожиться и уничтожить цивилизацию, потому что жизнь – это страдание», – рассказал футуролог.
Для того чтобы избежать катастрофы, разработчики ИИ должны заранее продумывать вероятные сценарии противостояния, продумывать все детали.
Ранее «Телеканал 360» писал, что искусственный интеллект захотел убить оператора во время испытаний.
Фото: Shanghai / Keystone Press Agency / globallookpress.com