Безопасность машинного обучения
Случайное открытие — любопытная вещь: сегодня утром я читал CACM Обучение безопасно и через несколько минут наткнулся на Ломать вещи легко на лобстерах… хм, что вселенная хочет мне сказать?
Может быть, давайте немного отступим. Если вы не жили под камнем, вы, вероятно, слышали, что машинное обучение, такое как TensorFlow, Alexa и больше — это новый черный, и если вы в курсе, вы его используете. Или скоро будет.
В любом случае, пока сама область только зарождается, дайте ей еще пару месяцев, и мы, вероятно, столкнемся здесь с некоторыми серьезными проблемами: связанными с безопасностью, то есть.
Очевидно, что обмануть эти системы проще, чем можно себе представить, и мы пока не очень понимаем, почему и как это на самом деле работает. Таким образом, предпринимаются усилия сделать безопасность первоклассным гражданином на земле ML, что, я полагаю, хорошо (?) По сравнению с ее фиксацией, когда она развернута в масштабе.
Я, например, приветствую наших новых повелителей машин, но вы знаете: лучше перестраховаться, чем потом сожалеть, как говорится ;)