«Докажи, что это фейк»: предложен способ сделать реальное фото бесполезным в суде
Недавно пользователь под ником @bristowbailey одной популярных соцсетей предложил потенциальным преступникам новый способ сделать бесполезными в суде изображения с камер видеонаблюдения. Человеку надо просто надеть искусственный шестой палец. Тогда картинка будет выглядеть как сгенерированная нейросетью. Ведь ни для кого не секрет, что если лица или пейзажи алгоритмам удаются очень хорошо, то с руками обычно полный провал. Пост стал вирусным, у него уже 5,4 млн просмотров и 116,6 тыс. лайков.
На самом деле, хоть решение и кажется элегантным, оно, скорее всего «не прокатит». Уже существуют «нейросети против нейросетей», способные определить, является фото фейком или нет. Когда нейросеть создает фото или видео, она все еще допускает массу ошибок, и руки в этом случае — лишь вершина айсберга, самая очевидная обывателю. Алгоритм, созданный для противодействия фейковым фото, анализирует количество и качество подобных ошибок и выдает в резюме вероятность подделки. Так что если из «ошибок» будет только палец, скорее всего, экспертиза это выявит. Но «гонка вооружений» продолжается — алгоритмы рисуют все лучше и реалистичнее.
Но почему же у нейросетей, генерирующих картинки, проблема с руками? Такие алгоритмы обучаются на огромном количестве картинок. На самом же деле рук на фотографиях и картинах не так много, как лиц — у машины гораздо меньше данных. Кроме того, человеческие руки на плоских изображениях выглядят очень по-разному с разных ракурсов, в разном положении, показанные лишь частично — все это очень сложно для нейросети, которая никогда не видела реальной осязаемой руки.
В любом случае, пусть идея с шестым пальцем кажется сомнительной, искусственный интеллект уже используется в системе правосудия в качестве эксперимента. Например, он умеет предсказывать преступления, создавать фотороботы, может помочь полицейским ловить маньяков, а судьям — выносить приговоры, рассчитывает вероятность того, насколько преступник склонен стать рецидивистом, сейчас в разработке полноценный робот-адвокат. Но звучит немало голосов и против использования алгоритмов в системе правосудия: так как ИИ обучается на данных, созданных людьми, он отражает многие человеческие слабости, и при этом все еще выдает наиболее вероятный, а не правильный ответ. Также актуальным остается вопрос о качестве данных, на которых обучается алгоритм — от того, что ему «скормили» может сильно зависеть ответ. При этом пока не всегда понятно, почему именно в том или ином случае он выдал тот или иной результат. Так, сейчас в США разработчики продолжают бороться с расовой предвзятостью подобных нейросетей.
Еще хуже, когда искусственный интеллект попадает к злоумышленникам. Совсем недавно система идентификации человека по голосу считалась надежной. Однако современные нейросети могут сделать голос одного человека очень похожим на голос другого. Недавно журналист из Великобритании таким образом взломал систему идентификации Lloyds Bank. Способ могут использовать мошенники для проникновения в личные кабинеты клиентов банков — им достаточно только получить фрагмент записи голоса жертвы.