3 января на сайте Кремля был опубликован список поручений Администрации президента и Правительству по внедрению в России искусственного интеллекта. Работа в этом направлении началась полным ходом: уже 19 января был создан национальный штаб ИИ, который возглавили замглавы АП Максим Орешкин и вице-премьер Дмитрий Григоренко. «ФедералПресс» поговорит с ИТ-предпринимателем Игорем Ашмановым о возможных стратегических задачах ИИ, проблемах его внедрения и том, почему генеративный интеллект надо не только развивать, но и ограничивать.
Владимир Путин утвердил ряд поручений по внедрению искусственного интеллекта для Администрации президента РФ и правительства. Как вы считаете, нужно ли государственное управление в этой области? Зачем?
– Регулирование, конечно, нужно. В первую очередь ИИ – это военные технологии.
Новый Министр войны США Хегсет выступал у Илона Маска и опубликовал меморандум для Пентагона об искусственном интеллекте. Они считают, что это военная технология и заниматься ею должно государство. Они собрали для армии технических директоров ведущих компаний-разработчиков и формируют с ними военные советы. У них нет никаких сомнений в том, что технологии ИИ должны работать на войну.
Нам тоже надо строить свой доверенный искусственный интеллект, разработанный под свои нужды. Это задача государства – в первую очередь потому, что у нас гораздо меньше ресурсов, и нельзя ожидать, что частный бизнес сначала сам все сделает, а потом это можно будет поставить на службу государству. У нас бизнес вообще старается не касаться военных разработок.
Кроме военных технологий, где нужно применение ИИ?
– Давайте поговорим о том, где не нужно. Жестко нужно регулировать внедрении искусственного интеллекта в социальной сфере и государственном управлении. У нас нет никаких законов на этот счет, граждане применяют западный генеративный искусственный интеллект, который мало того, что дает неверные сведения, так еще и служит каналом утечки персональных данных.
Наш средний чиновник все равно хочет работать с чем-то фирменным: его не устраивает чат с «Алисой», он загружает рабочие документы в GPT. Поскольку это облачные сервисы, все это сразу утекает на Запад, в основном – американцам.
Какие еще опасности есть при повсеместном внедрении ИИ?
– Кроме рисков утечки персональных данных и конфиденциальной информации, есть еще и риски дискредитации контента. Например, если законодатель пишет законы с помощь ИИ, а я видел такие примеры. На стороне ИИ тоже люди не глупые, они могут таким образом влиять на законопроекты, анализируя то, что мы в ИИ загружаем.
Еще есть риск того, что ИИ используется для снятия ответственности. На основе усредненной информации в генеративном механизме пытаются писать законы, или общаться с населением. И каждый раз есть «отмазка»: «это не я, это ИИ». Чиновники пытаются внедрить между собой и населением чат-боты, чтобы снять с себя ответственность. А задача чат-бота – «заболтать» человека и не допустить его до оператора.
Здесь же проблема использования ИИ в образовании: мало того, что он фальсифицирует обучение и пишет недостоверные сведения, он отупляет детей. Школьник на уроке отвечает какую-то чушь и парирует учителю: «ну мне же это «Алиса» сказала».
Поэтому внедрение ИИ в таких сферах должно особенно жестко регулироваться.
Давайте подведем итог: в каких сферах применение ИИ допустимо, а в каких – опасно?
– Применять ИИ можно для расчетов в экономике, энергетике, в транспортной сфере и на войне. На войне даже не так важно, какой у тебя ИИ: главное, чтобы он убивал врагов и защищал своих.
В социальной сфере – в образовании, судопроизводстве, законотворчестве, в коммуникации граждан с государством – ИИ, если и допустим, то должен жестко регулироваться. При этом генеративный ИИ там вообще должен быть запрещен. Чтобы никакой депутат никакого уровня ничего не генерировал: мы выбирали живого человека, а не алгоритм.
А там, где ИИ действительно может помочь, он обычно не генеративный. Например, это расчеты или распознавание чего-то.
Возможно ли развитие ИИ в стране «снизу»?
– А точно есть потребность «снизу» в развитии ИИ? Это навязанная, придуманная потребность, которая возникает у людей, когда они видят результат. Реальной потребности не было.
Говорят, что на Западе ИИ развивался частным бизнесом. Но условный Илон Маск или другие разработчики – это не совсем частные компании: у них есть поддержка государства и спецслужб.
Тем не менее, внедрение ИИ уже не остановить. Как обезопасить государство и граждан при его использовании?
– В каких-то областях запретить. Должен быть запрет на принятие искусственным интеллектом юридически значимых решений: отказ в кредите, возбуждение уголовного дела, все это не должно приниматься автоматически.
А там, где ИИ должен применяться, он должен быть нашим, доверенным. Это к вопросу о том, что такими технологиями должно заниматься государство.
Какие вы видите проблемы с реализацией стратегии ИИ в России, несмотря на участие государства?
– Самое главное: в Америке на развитие и внедрение ИИ выделили триллион долларов. У нас на поручения президента выделяют триллион рублей. Разница в восемьдесят раз. В этих условиях догнать и перегнать никого не получится.
Вся современная инженерная мысль создана в США. Этот поезд уже ушел и догонять его бессмысленно.
А какие барьеры, кроме финансирования, вы видите? Может быть, кадры, или вычислительные мощности?
– С точки зрения правительства проблема в недостаточном контроле и недостаточном законодательном регулировании. Поэтому ИИ сейчас будут внедрять везде, чтобы отчитаться.
Ровно то же самое несколько лет назад мы наблюдали с блокчейном: считалось, что он должен быть везде – от выборов до образования. ИТ-менеджеры обещали, что к 2030 году 10% всего ВВП Земли будет создаваться технологиями блокчейна. Сегодня мы видим, что блокчейн вычеркнут из всех госпрограмм. То же самое может произойти и с искусственным интеллектом – только в большем масштабе.
Еще один барьер – вычислительные мощности. Видеокарты нам просто не продают, их приходится доставать с очень большим трудом.
Разработчиков и инженеров у нас тоже мало, потому что это в основном американские технологии, не наши. В этот «космос» они шагнули раньше нас. С ограничениями по деньгам, «железу» и кадрам мы уже проиграли гонку. Но это не страшно: нам эта гонка и не нужна. Нам нужно дать США асимметричный технологический ответ, если симметричный мы дать не можем: разработать что-то принципиально новое, но свое, а не гнаться за другими.
Возвращаясь к поручениям президента. Как вы считаете, могут ли «на местах» противиться повсеместному внедрению ИИ в России?
– Любой, кто будет препятствовать бездумному внедрению ИИ, – настоящий патриот и умный человек. Генеративные технологии могут только все ухудшить, и нормальный руководитель запрещает их в своих компаниях.
Сейчас генеративный ИИ во многом создан для имитации работы. Представьте: в вашей журналистской работе кто-то генерирует новости с помощью искусственного интеллекта – это разве работа? Или финансовый аналитик вместо реальной работы с рынком формирует отчет с помощью промптов – это тоже имитация работы системой, которая даже не знает, что происходит на рынке. На выходе получаются заведомо усредненные и глупые данные.
По сути, это мошенничество. Просто судебные инструменты борьбы с таким мошенничеством пока не разработаны. Люди генерируют ерунду, но доказать это очень сложно.
В моей практике уже были случаи, когда я увольнял людей за генерацию отчетов. Говоришь сотруднику: «Что ты написал? Переделай нормально». А он уже не может переделать – разучился. Пытается все исправить с помощью того же ИИ.
Генеративный ИИ – это вред, и те, кто ему сопротивляется, молодцы. В стратегических документах по внедрению ИИ мало того, что нет карты рисков, – нет и финансово-экономического обоснования: зачем мы это делаем, кроме того, что это «инновационно»?
Ситуация ровно как с блокчейном: никто не знает, как это работает и зачем нужно, но все внедряют. А через пару лет и этот пузырь лопнет – и уже будут внедрять там, где действительно надо и где это экономически обосновано.
Изображение сгенерировано нейросетью Kandinsky 3.1


