Сергей Пономарев признался, что сам стал жертвой такой технологии, передает корреспондент наш сайт

Мажилисмен Сергей Пономарев обратился к заместителю Премьер-Министра – Министру искусственного интеллекта и цифрового развития Республики Казахстан Мадиеву Ж.Х., Министру внутренних дел Республики Казахстан Саденову Е.С. с заявлением о защите граждан Казахстана от технологии дипфейков.
Цифровизация и технологический прогресс сегодня не просто направление, а новая национальная идея Казахстана. Однако у прогресса есть и обратная сторона. Технологии, которые могут использоваться не во благо, а во вред. Одна из них — технология дипфейков, то есть создание при помощи искусственного интеллекта поддельных изображений, аудио- и видеоматериалов с участием реальных людей.
По данным Всемирного экономического форума, уже второй год подряд дезинформация и распространение ложных сведений называются среди главных краткосрочных рисков для мировой стабильности.
«Я лично стал жертвой такой технологии, моё изображение и голос были полностью подделаны, использованы в ролике, где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку. Уверен, с подобным сталкивались и многие присутствующие здесь. Мы уже видели дипфейки с участием зарубежных политиков и даже с использованием образа Президента нашей страны», — заявил депутат.
Качество подделок растёт и с ним растут риски манипуляции общественным мнением, дискредитации государственных органов и дестабилизации общественно-политической ситуации.
Если будет создан и распространён дипфейк с участием руководителя государства или публичного лица, с ложными призывами или фальшивыми заявлениями, последствия могут быть катастрофическими. Это уже угроза национальной безопасности.
Мировая практика подтверждает серьёзность проблемы. Так, США ещё в 2020 году включили положения о дипфейках
в Закон об оборонном бюджете, определив их как фактор информационной безопасности. Республика Корея перед парламентскими выборами 2024 года ввела запрет на использование дипфейков в агитации за 90 дней до голосования, нарушение которого влечёт штраф или лишение свободы. В ряде стран внедряются технологии автоматического выявления подделок, а также механизмы цифровой маркировки оригинального контента.
Дипфейки всё чаще используются в финансовом мошенничестве. Когда человек слышит голос близкого или видит его видео
с просьбой о помощи, на эту удочку попадаются даже высокообразованные граждане.
По данным отчёта компании Feedzai за 2025 год, более 50% случаев онлайн-мошенничества совершается с использованием искусственного интеллекта. В ответ банки и платёжные системы уже переходят к использованию ИИ-решений для защиты клиентов.
Главная проблема — ущерб репутации. Даже если позднее размещается опровержение, вред уже нанесён, а восстановить доверие практически невозможно.
«С учётом стремительного роста социальной инженерии и распространения технологий искусственного интеллекта, требую от Министерства искусственного интеллекта и Министерства внутренних дел действовать на опережение и принять комплекс мер, а именно:
вменить в обязанности центра мониторинга и экспертизы цифрового контента – обеспечение и оперативное выявление дипфейков и их блокировку;
разработать систему подтверждения подлинности цифровых изображений и видеоматериалов, особенно
в государственных информационных системах и официальных медиа. Этот инструмент должен быть доступен не только судам,
но и каждому гражданину, который захочет проверить изображение на подлинность;
провести широкую информационную кампанию по обучению граждан методам распознавания дипфейков и защите от цифрового мошенничества», — заявил мажилисмен.
Со своей стороны, фракция партии АМАNАТ уже сегодня работает над внесением дополнительных норм в действующие законы
в части ужесточения наказания за неправомерное использование дипфейков и ограничения сфер применения синтетических продуктов ИИ.