Цифровизация и технологический прогресс сегодня не просто направление, а новая национальная идея Казахстана

Одна из них - технология дипфейков, то есть создание при помощи искусственного интеллекта поддельных изображений, аудио- и видеоматериалов с участием реальных людей, передает Caravan.kz.

По данным Всемирного экономического форума, уже второй год подряд дезинформация и распространение ложных сведений называются среди главных краткосрочных рисков для мировой стабильности.

Я лично стал жертвой такой технологии, моё изображение и голос были полностью подделаны, использованы в ролике, где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку.

Уверен, с подобным сталкивались и многие присутствующие здесь.

Мы уже видели дипфейки с участием зарубежных политиков и даже с использованием образа Президента нашей страны.

Качество подделок растёт и с ним растут риски манипуляции общественным мнением, дискредитации государственных органов и дестабилизации общественно-политической ситуации.

Если будет создан и распространён дипфейк с участием руководителя государства или публичного лица, с ложными призывами или фальшивыми заявлениями, последствия могут быть катастрофическими. Это уже угроза национальной безопасности.

Мировая практика подтверждает серьёзность проблемы.

Так, США ещё в 2020 году включили положения о дипфейках в Закон об оборонном бюджете, определив их как фактор информационной безопасности.

Республика Корея перед парламентскими выборами 2024 года ввела запрет на использование дипфейков в агитации за 90 дней до голосования, нарушение которого влечёт штраф или лишение свободы.

В ряде стран внедряются технологии автоматического выявления подделок, а также механизмы цифровой маркировки оригинального контента.

Дипфейки всё чаще используются в финансовом мошенничестве.

Когда человек слышит голос близкого или видит его видео с просьбой о помощи, на эту удочку попадаются даже высокообразованные граждане.

По данным отчёта компании Feedzai за 2025 год, более 50% случаев онлайн-мошенничества совершается с использованием искусственного интеллекта.

В ответ банки и платёжные системы уже переходят к использованию ИИ-решений для защиты клиентов.

Главная проблема - ущерб репутации. Даже если позднее размещается опровержение, вред уже нанесён, а восстановить доверие практически невозможно.

С учётом стремительного роста социальной инженерии и распространения технологий искусственного интеллекта, требую от Министерства искусственного интеллекта и Министерства внутренних дел действовать на опережение и принять комплекс мер, а именно:

Со своей стороны, наша фракция уже сегодня работает над внесением дополнительных норм в действующие законы в части ужесточения наказания за неправомерное использование дипфейков и ограничения сфер применения синтетических продуктов ИИ.