Риски фейковой благотворительности: Введение
С развитием технологий искусственного интеллекта (ИИ) возрастают и риски использования этих технологий в мошеннических целях. В России и за рубежом эксперты предупреждают о возникающих угрозах фейковой благотворительности, где ИИ используется для обмана добросердечных людей.
Недавние исследования и опросы показали, что мошенники всё чаще задействуют ИИ для сбора средств под видом благотворительности. Эта проблема становится всё более актуальной в мире, где технологии быстро развиваются, а регулирование не поспевает за инновациями.
Технологии на службе мошенников
ИИ-агенты — это программы, способные автономно выполнять задачи, используя машинное обучение и искусственный интеллект. В благотворительной сфере такие агенты могут создавать трогательный контент, генерировать персонализированные сообщения и вести переговоры с потенциальными жертвами.
Эксперимент, проведенный американской некоммерческой организацией Sage, показал, что ИИ-агенты могут эффективно собирать пожертвования. В рамках этого эксперимента четыре ИИ-агента за месяц собрали $2 тыс. для благотворительных организаций, работая автономно по два часа в день.
Однако эксперты подчеркивают, что без вмешательства человека и направленных указаний, ИИ-агенты не смогли бы достичь таких результатов. Именно поэтому они считают, что опасность кроется не только в самих технологиях, но и в возможностях злоумышленников использовать их для обмана.
Прогнозы на будущее и текущие риски
Руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров прогнозирует, что риски мошенничества с ИИ-агентами в России будут расти с увеличением их внедрения в разные бизнес-процессы. В частности, вторая половина 2025 — начало 2026 года станет пиком такого рода мошенничества из-за доступности технологий создания ИИ-агентов и роста числа нерегулируемых секторов.
ИИ-агенты могут атаковать тысячи пользователей одновременно, генерируя персонализированные сообщения и располагая к себе целевую аудиторию. Наиболее уязвимыми становятся люди, находящиеся в эмоционально трудном состоянии, например, одинокие и переживающие сложные периоды своей жизни.
Кроме того, злоумышленники могут использовать ИИ-агенты для создания дипфейков — реалистичных, но фальшивых аудио- и видеоматериалов, которые могут включать образы якобы больных животных или детей, нуждающихся в помощи.
Потенциальные решения и меры предосторожности
Для борьбы с фейковой благотворительностью и другими видами мошенничества с использованием ИИ, важно соблюдать ряд мер предосторожности:
- Тщательная проверка организаций, предлагающих благотворительные пожертвования, с помощью официальных источников.
- Регулирование и контроль над использованием ИИ в финансовых и благотворительных операциях.
- Разработка антифишинговых методов и систем защиты для предотвращения автономных атак ИИ-агентов.
- Обучение пользователей распознавать подозрительные электронные письма и сообщения.
Эксперты также рекомендуют использовать многофакторную аутентификацию и другие методы защиты персональных данных и финансовых операций.
Законодательная база
- Федеральный закон от 27.07.2006 № 152-ФЗ «О персональных данных»
- Федеральный закон от 7.02.1992 № 2300-1 «О защите прав потребителей»
- Федеральный закон от 27.12.2019 № 453-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации по вопросам обеспечения информационной безопасности»
Безопасность и доверие в благотворительности: Заключение
В условиях роста использования ИИ-технологий в различных сферах, включая благотворительность, крайне важно развивать компетенции в области кибербезопасности и защищать граждан от мошеннических действий. Применение ИИ в благотворительности должно базироваться на строгих принципах этики и ответственности, чтобы исключить возможность злоупотреблений и сохранить доверие населения.
Следует помнить, что перед отправкой пожертвований всегда необходимо проверять информацию на официальных сайтах благотворительных фондов и убеждаться в подлинности собираемых средств.









