Вы используете устаревший браузер!

Страница может отображаться некорректно.

  • добавить в избранное
    Добавить в закладки

Я – не я, голова – не моя

Прочитали: 1726 Комментариев: 115 Рейтинг: 102

Отсутствие «Фотошопа» не мешало нашим предкам изготавливать фейковые фотографии, на которых головы одних людей сочетались с туловищами других. Не говоря уже о художниках, которые издревле промышляли подобными фокусами. Но до поры до времени создание реалистичных фейковых изображений требовало хорошей квалификации – даже когда появились продвинутые графические редакторы. Но все меняется, и развитие технологий машинного обучения теперь позволяет простому пользователю делать то, о чем раньше оставалось только мечтать.

Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами.

Алгоритм Face2Face подменяет лица «героев» видео в режиме реального времени.

Для создания подобных видео были использованы алгоритмы машинного обучения, такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением, а также материалы из открытого доступа.

https://habrahabr.ru/post/346478

Естественно, новый инструмент может использовать кто угодно, – комментарии к новости содержат множество предположений на этот счет. Конечно, в качестве серьезной улики такое видео не пройдет: отмечается, что «c первого взгляда кажется правдоподобным, но на видео наблюдаются артефакты, лицо не отслеживается правильно, хотя распознать фейк неискушенному зрителю будет сложно».

А вот для чего предложенная система подойдет идеально, так это для компрометации нежелательных злоумышленнику личностей. Скажем, разругались две подруги – и наутро в соцсетях обе фигурируют в голом виде. Размер картинки маленький, артефакты наведены специально – кто будет разбираться, что тело и лицо принадлежат разным людям?

Честно говоря, мы не собирались писать на эту тему – уж слишком она далека от вопросов информационной безопасности, да и до этого «изобретения» Интернет был переполнен фейками. Но технология пошла в массы, и об этом мы должны предупредить наших пользователей.

Два месяца назад Motherboard связалась с ученым в сфере компьютерных наук из правозащитной организации «Фонд электронных рубежей» Питером Экерсли, чтобы обсудить последствия внедрения такой технологии в повседневную жизнь. Эксперт признал, что на текущий момент создать собственный ролик на базе нейросетей может каждый, но им никого не удастся обмануть — из-за пока еще большого количества шероховатостей и неточностей.

«Такое положение вещей сохранится еще как минимум год или два», — заключил Экерсли.

Как оказалось, хватило всего двух месяцев. На Reddit появились новые порноролики — с «участием» актрис Джессики Альбы и Дэйзи Ридли — и их качество уже значительно превосходит декабрьские видео.

Правдоподобность этих роликов настолько высока, что их стали принимать за настоящие создатели ресурсов, публикующих интимные фотографии знаменитостей. Один из самых популярных подобных сайтов опубликовал видео с актрисой Эммой Уотсон, где она принимает душ, с заголовком «ранее не опубликованные кадры из частной коллекции». Тем не менее, этот ролик был смонтирован по технологии deepfakes, а сама Эмма Уотсон не имеет к нему никакого отношения, кроме того, что ее лицо было использовано без какого-либо согласия.

Простое в использовании приложение позволяет каждому без особых усилий создавать фейковое видео — от интимного видео со своей бывшей девушкой в качестве «порномести» до выступления государственного деятеля, который может сказать с трибуны все что угодно.

https://hi-tech.mail.ru/news/kak_internet_zapolonilo_falshivoe_porno

Можно ли выявить фейковые изображения? Во многих случаях это реально, но:

Погружаясь в тему Image Forensics, начинаешь понимать, что любой из методов (обнаружения фейков) можно обмануть. Одни легко обходятся с помощью пережатых до 10 шакалов JPEG'ов, другие цветокоррекцией, блюром, ресайзом или поворотом изображения на произвольные углы. Оцифровка журнала или TV-сигнала тоже добавляет ошибок в исходник, усложняя анализ. И тут вы начинаете понимать – вполне возможно отфотошопить изображение так, что никто не докажет обратное.

http://vas3k.ru/blog/390

#технологии

Dr.Web рекомендует

Просто имейте в виду, что теперь есть и такой способ фабрикации фейков. Будьте к этому готовы и не поддавайтесь на обман!

Получайте Dr.Web-ки за участие в проекте

Каждая активность = 1 Dr.Web-ка

Оцените выпуск

Сделайте репост

Поставьте «Нравится»

Чтобы получать награды надо войти на страницу выпуска через аккаунт на сайте «Доктор Веб» (или создать аккаунт). Аккаунт должен быть связан с вашим аккаунтом в социальной сети. Видео о связывании аккаунта.


Нам важно ваше мнение

10 Dr.Web-ок за комментарий в день выхода выпуска или 1 Dr.Web-ка в любой другой день. Комментарии публикуются автоматически и постмодерируются. Правила комментирования новостей «Доктор Веб».

Чтобы оставить комментарий, нужно зайти через свой аккаунт на сайте «Доктор Веб». Если аккаунта еще нет, его можно создать.

Комментарии пользователей


 
На страницу: