В университете МИСИС разработали нейросеть для поиска дипфейков на фото и видео. Об этом сообщает "Газета.ру".
Дипфейк — это способ создания поддельного медиаконтента с помощью алгоритмов глубокого обучения. Слово deepfake объединяет в себе два понятия — глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake).
Пользователи смогут загружать изображения для проверки через специально разработанное веб-приложение. Также предусмотрена возможность анализа картинок и видео в реальном времени через камеру компьютера.
Для обучения нейросети разработчики использовали набор данных из 16 500 изображений. Это были как подлинные, так и фейковые изображения. Для обучения использовались печатные фотографии и изображения на экранах электронных устройств, маски и персонажи мультфильмов.
Приложение анализирует информацию в два этапа, их результаты объединяются и проходят через несколько финальных слоев для получения окончательного вывода о подлинности изображения. Этот подход позволил команде достичь высокого значения точности при определении подлинности лиц.
Согласно опросу, проведенному по заказу "Лаборатории Касперского", каждый десятый респондент пользуется или по крайней мере пробовал такие нейросети, как дипфейк-технологии, умные чат-боты и генераторы изображений.
Респонденты отмечают, как преимущества, так и риски таких технологий. Наиболее перспективными россиянам кажутся генераторы изображений: мнение, что за ними будущее, разделяют 43% респондентов. Аналогичная точка зрения относительно умных чат-ботов — у 40%, а дипфейк-технологий — у 31%.
Что касается киберрисков, то 45% опрошенных считают, что дипфейк-технологии будут активно использоваться злоумышленниками и недоброжелателями. Часть респондентов боятся, что дипфейк-технологии, умные чат-боты и генераторы изображений могут быть использованы в отношении лично них — 26%, 20% и 17% соответсвенно.
Фото: freepik