Лучшие вопросы
Таймлайн
Чат
Перспективы

Фальшивая порнография

порнография, созданная с использованием технологии глубокой подделки Из Википедии, свободной энциклопедии

Фальшивая порнография
Remove ads

Дипфейковая порнография, или просто поддельная порнография, представляет собой разновидность синтетического порно, которое создается с помощью изменения уже существующих порнографических материалов путём применения технологии deepfake к лицу актрисы или актёра. Дипфейковое порно вызывает множество нареканий, поскольку обычно лица знаменитостей женского пола помещаются на тела порноактрис, причем без согласия тех и других.

Thumb
изображение с помощью технологии дипфейк
Remove ads

История

Суммиров вкратце
Перспектива

В 2017 году порнография с дипфейками наводнила Интернет, особенно платформу Reddit[1]. Первым роликом, привлёкшим ширококое внимание, стал дипфейк с Дейзи Ридли, о котором вышли несколько публикаций[1]. Другие известные порнографические дипфейки были сделаны с другими знаменитостями[1][2][3][4]. Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96 % всех дипфейков в Интернете были порнографическими[5].

В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Vice. Статья вызвала широкий резонанс[6]. Шесть недель спустя Коул написала в последующей статье о значительном росте поддельной порнографии с помощью искусственного интеллекта[7]. С тех пор Саманта Коул из Vice опубликовала серию статей, посвящённых новостям, связанным с дипфейковой порнографией[8][9][10][11][4][12][6][7].

Несколько социальных сетей запретили или предприняли усилия по ограничению дипфейковой порнографии. В частности, сабреддит r/deepfakes на Reddit был запрещен 7 февраля 2018 года из-за нарушения политики «недобровольной порнографии»[13][14][15][16][17][18]. В том же месяце представители Twitter заявили, что приостановят действие учетных записей, подозреваемых в публикации дипфейкового контента без согласия исполнителей и владельцев образов[12].

Скарлетт Йоханссон, частый объект дипфейкового порно, публично рассказала об этом в The Washington Post в декабре 2018 года[19]. Она заявила, что, несмотря на опасения, она не будет пытаться удалить какие-либо из своих дипфейков, поскольку считает, что они не влияют на её общественный имидж и что различные законы в разных странах и характер интернет-культуры делают любые попытки удалить дипфейки «безнадёжным делом»[19]. В то время как такие знаменитости, как она, защищены своей славой, она считает, что дипфейки представляют серьезную угрозу для менее известных женщин, репутация которых может быть подорвана несогласованным изображением в дипфейковой порнографии или порномести[19].

DeepNude

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, в котором использовались нейронные сети, в частности генеративно-состязательные сети, для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, первая стоила 50 долларов[20]. 27 июня создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают хождение[21]. На GitHub версия этой программы с открытым исходным кодом под названием «open-deepnude» была удалена[22]. Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры[23].

Дипфейк CSAM

Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или создания CSAM с изображением детей, которые не подвергались реальному сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства[24]. Кроме того, дипфейковая детская порнография создает дополнительные препятствия для полиции, усложняя уголовные расследования и идентификацию жертв.

Remove ads

Этические дебаты

Thumb
Берлин 2023 протест против дипфейк порнографии

Программное обеспечение для дипфейковой порнографии может быть использовано не по назначению для создания порномести против человека, что может быть расценено как форма домогательства[21].

В настоящее время кадры, созданные с помощью программного обеспечения, такого как DeepNude, все еще далеки от того, чтобы быть неотличимыми от реальных кадров при судебном анализе[23].

Remove ads

Усилия компаний по ограничению видеозаписи дипфейковой порнографии

31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки[25][26].

В феврале 2018 года Reddit забанил r/deepfakes за распространение несогласованной порнографии[18]. Другие веб-сайты также запретили использование дипфейков для принудительной порнографии, в том числе платформа социальных сетей Twitter и порносайт Pornhub[12]. Тем не менее, некоторые веб-сайты, в том числе 4chan и 8chan, не запретили дипфейк-контент[27].

Также в феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом без согласия», что нарушает их условия обслуживания[28]. Ранее они также заявляли Mashable, что удалят контент, помеченный как дипфейки[29]. В статье 2018 года авторы из Motherboard сообщили, что поиск «дипфейков» на Pornhub по-прежнему выдаёт несколько недавних видео с дипфейками[9].

Чат-сайт Discord в прошлом принимал меры против дипфейков[30] и занимал общую позицию в отношении дипфейков[26][31]. В сентябре 2018 года Google добавил «несогласованные синтетические порнографические изображения» в свой список запретов, что позволило любому запрашивать блок результатов, изображающих их поддельные обнаженные тела.[32]

Примечания

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads