Применение технологий подмены голоса или изображений (дипфейков) в преступлениях может стать отягчающим обстоятельством.
Об этом сообщил глава комитета Госдумы по информполитике Сергей Боярский во время конференции «Цифровая индустрия промышленной России», передает ТАСС. «Прорабатывается вопрос о признании отягчающим обстоятельством использования подмены голоса или изображения при совершении преступлений», — сказал он.
В мае заместитель председателя комитета ГД по физической культуре и спорту Сергей Бурлаков рекомендовал каждой российской семье определить внутреннее кодовое слово, которое поможет распознать мошеннические схемы с применением технологий дипфейка при звонках. Скоро по стране начнутся телефонные звонки с фальшивыми голосами родственников абонентов, предупреждает заместитель председателя комитета ГД. Он заявил, что при сомнениях в том, с кем в настоящий момент идет телефонный разговор, достаточно попросить собеседника произнести заранее введенный пароль.
Ранее эксперты по искусственному интеллекту поделились, что каждый второй россиянин столкнется с дипфейк-атакой до конца года. Если в 2024-м – 2025-м годах чаще фиксируются фейковые видео в мессенджерах и голосовые сообщения, то уже через год мошенники смогут в реальном времени подделывать голос «дочки, попавшей в беду», «друга, просящего денег», или «коллеги, срочно требующего перевести средства», сообщают в компании.