С развитием технологий искусственного интеллекта (ИИ) возрастают и риски использования этих технологий в мошеннических целях. В России и за рубежом эксперты предупреждают о возникающих угрозах фейковой благотворительности, где ИИ используется для обмана добросердечных людей.
Недавние исследования и опросы показали, что мошенники всё чаще задействуют ИИ для сбора средств под видом благотворительности. Эта проблема становится всё более актуальной в мире, где технологии быстро развиваются, а регулирование не поспевает за инновациями.
ИИ-агенты — это программы, способные автономно выполнять задачи, используя машинное обучение и искусственный интеллект. В благотворительной сфере такие агенты могут создавать трогательный контент, генерировать персонализированные сообщения и вести переговоры с потенциальными жертвами.
Эксперимент, проведенный американской некоммерческой организацией Sage, показал, что ИИ-агенты могут эффективно собирать пожертвования. В рамках этого эксперимента четыре ИИ-агента за месяц собрали $2 тыс. для благотворительных организаций, работая автономно по два часа в день.
Однако эксперты подчеркивают, что без вмешательства человека и направленных указаний, ИИ-агенты не смогли бы достичь таких результатов. Именно поэтому они считают, что опасность кроется не только в самих технологиях, но и в возможностях злоумышленников использовать их для обмана.
Руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров прогнозирует, что риски мошенничества с ИИ-агентами в России будут расти с увеличением их внедрения в разные бизнес-процессы. В частности, вторая половина 2025 — начало 2026 года станет пиком такого рода мошенничества из-за доступности технологий создания ИИ-агентов и роста числа нерегулируемых секторов.
ИИ-агенты могут атаковать тысячи пользователей одновременно, генерируя персонализированные сообщения и располагая к себе целевую аудиторию. Наиболее уязвимыми становятся люди, находящиеся в эмоционально трудном состоянии, например, одинокие и переживающие сложные периоды своей жизни.
Кроме того, злоумышленники могут использовать ИИ-агенты для создания дипфейков — реалистичных, но фальшивых аудио- и видеоматериалов, которые могут включать образы якобы больных животных или детей, нуждающихся в помощи.
Для борьбы с фейковой благотворительностью и другими видами мошенничества с использованием ИИ, важно соблюдать ряд мер предосторожности:
Эксперты также рекомендуют использовать многофакторную аутентификацию и другие методы защиты персональных данных и финансовых операций.
В условиях роста использования ИИ-технологий в различных сферах, включая благотворительность, крайне важно развивать компетенции в области кибербезопасности и защищать граждан от мошеннических действий. Применение ИИ в благотворительности должно базироваться на строгих принципах этики и ответственности, чтобы исключить возможность злоупотреблений и сохранить доверие населения.
Следует помнить, что перед отправкой пожертвований всегда необходимо проверять информацию на официальных сайтах благотворительных фондов и убеждаться в подлинности собираемых средств.
Минфин России и ФНС России разъяснили порядок налогообложения доходов наследников по банковским вкладам наследодателя. Ключевая…
Суть инициативы Планируется ужесточение ответственности за нарушения в сфере ЖКХ для должностных лиц и руководства…
Правительство РФ утвердило проведение эксперимента по онлайн-поступлению в колледжи (СПО). Новый порядок протестируют в Красноярском…
Механизм проведения повторной государственной экологической экспертизы упростили. Если по представленным ранее документам получено отрицательное заключение,…
Разъяснено: расходы на содержание и эксплуатацию помещений медицинской организации, расположенных в многоквартирном доме (встроенные/пристроенные нежилые…
Мошенники распространяют фишинговые формы под видом «проверки баланса банковской карты» и пугают блокировкой счета. Цель…