Можно ли защититься от современных атак на ML модели, не сильно потеряв в качестве? Постройте свою модель, решающую ту же задачу классификации, но при этом устойчивую к Adversarial ML атакам на входные данные.
Нажимая кнопку «Участвовать» и/или «Отправить решение», вы соглашаетесь с Правилами участия в соревновании Data Fusion Contest 2023.
Как и в задаче Атака, в вашем распоряжении имеется банковская RNN модель бинарной классификации, предсказывающая дефолт клиента. Доступа к полному объему данных, на которых модель была обучена, у вас нет. Однако, есть небольшая размеченная выборка клиентов с сопроводительными материалами. И вы точно знаете, в каком формате эту модель будут атаковать – меняя небольшое число транзакций, подаваемых модели на вход.
Теперь ваша задача – построить хорошую модель для той же задачи классификации, сделав ее при этом защищенной от подобных уязвимостей. Не в ваших силах предотвратить взлом данных, но полностью в ваших – постараться защитить модель от подобных неприятностей.
Необходимо построить модель классификатора, используя имеющуюся банковскую модель и предоставленные вам размеченные данные транзакций, в формате контейнера с кодом. А именно, используя данные транзакций, обучить модель, использующую информацию о последних 300 транзакциях для бинарной классификации клиентов.
Это контейнерное соревнование с подготовкой решений в виде архива с кодом, который будет автономно запускаться на закрытых тестовых данных. Лидерборды соревнования будут использоваться для квалификации (отбора) на турниры. Так как формат является контейнерным, отбор на каждый из турниров происходит автоматически, для участников на первых 10 местах на момент квалификации на турнир. Квалификация на промежуточный турнир происходит по публичной части лидерборда; квалификация на финальный турнир – по приватной.
Mean Harm ROC-AUC
. Это среднее гармоническое ROC-AUC
на исходных данных и на атакованных. Метрика сочетает в себе компромисс между повышением защищенности модели и потенциальным снижением ее качества. Призовой фонд в рамках промежуточного турнира:
1 место: 125 000 рублей
2 место: 75 000 рублей
3 место: 50 000 рублей
Номинация Companion по задаче Защита: 50 000 рублей
Призовой фонд в рамках финального турнира:
1 место: 250 000 рублей
2 место: 150 000 рублей
3 место: 100 000 рублей
4 и 5 место: 75 000 рублей
Номинация Companion по задаче Защита: 50 000 рублей
Тема атак и защиты моделей машинного обучения в прикладных задач сейчас только начинает развиваться. Чтобы вы могли вдохновиться подходами и идеями, хотим поделиться с вами наиболее интересными статьями по теме, отобранными в ходе подготовки соревнования:
Cookies help us deliver our services. By using our services, you agree to our use of cookies.