Согласно докладу, опубликованному американскими спецслужбами (АНБ, ФБР и CISA) угроза “синтетических медиа” (дипфейков) в последнее время значительно выросла. Данный вид контента создается искусственно, при помощи современных технологий. Он может представлять собой тексты, видео или аудио, которые бывает очень сложно отличить от настоящих.
Представители ведомств отмечают, что злоумышленники и шпионы активно пользуются дипфейками, чтобы получить доступ к системам и защищенным данным организаций и государственных структур. Случаев обмана клиентов и сотрудников учреждений становится все больше. Чаще всего атаки такого характера совершаются против военных, спасателей и предприятий критической инфраструктуры.
Одним из самых резонансных случаев, когда был успешно использован дипфейк, стал созвон в WhatsApp, где мошенникам удалось подделать голос и внешний вид одного из директоров крупной компании. При помощи ИИ удалось также воссоздать интерьер, в котором находился СЕО.
Есть и другой пример, когда преступники использовали видео, текстовые сообщения и фейковое аудио, при помощи которых притворились руководителем организации. Сначала общение с “коллегой” проходило в WhatsApp, после чего перешло в созвон в Teams. Используя разные способы коммуникации, злоумышленники пытались получить от собеседников денежные средства.
Кроме спецслужб, угрозой “синтетических медиа” озабочены и правительственные структуры. Они ссылаются на перечень главных угроз 2023 года, составленный Eurasia Group, где атаки при помощи ИИ стоят на третьем месте среди прочих опасностей. “Генеративные технологии могут использоваться для создания и распространения фейковой информации, которая позволит усилить влияние отдельных групп в социальной и политической сфере”, – говорят специалисты по информбезопасности.
Спецслужбы рассказали, что главным методом защиты от “синтетических медиа” является ПО, позволяющее в реальном времени обнаруживать подделки и блокировать их распространение. Компании и государственные структуры должны создать собственные планы по реагированию на дипфейки и регулярно прорабатывать разные сценарии атак.
Представители ведомств отмечают, что злоумышленники и шпионы активно пользуются дипфейками, чтобы получить доступ к системам и защищенным данным организаций и государственных структур. Случаев обмана клиентов и сотрудников учреждений становится все больше. Чаще всего атаки такого характера совершаются против военных, спасателей и предприятий критической инфраструктуры.
Одним из самых резонансных случаев, когда был успешно использован дипфейк, стал созвон в WhatsApp, где мошенникам удалось подделать голос и внешний вид одного из директоров крупной компании. При помощи ИИ удалось также воссоздать интерьер, в котором находился СЕО.
Есть и другой пример, когда преступники использовали видео, текстовые сообщения и фейковое аудио, при помощи которых притворились руководителем организации. Сначала общение с “коллегой” проходило в WhatsApp, после чего перешло в созвон в Teams. Используя разные способы коммуникации, злоумышленники пытались получить от собеседников денежные средства.
Кроме спецслужб, угрозой “синтетических медиа” озабочены и правительственные структуры. Они ссылаются на перечень главных угроз 2023 года, составленный Eurasia Group, где атаки при помощи ИИ стоят на третьем месте среди прочих опасностей. “Генеративные технологии могут использоваться для создания и распространения фейковой информации, которая позволит усилить влияние отдельных групп в социальной и политической сфере”, – говорят специалисты по информбезопасности.
Спецслужбы рассказали, что главным методом защиты от “синтетических медиа” является ПО, позволяющее в реальном времени обнаруживать подделки и блокировать их распространение. Компании и государственные структуры должны создать собственные планы по реагированию на дипфейки и регулярно прорабатывать разные сценарии атак.
Комментарий