В России разработали нейросеть для идентификации фейковых лиц на фото и видео - Московский часовой
17:21 16.10.2023

В России разработали нейросеть для идентификации фейковых лиц на фото и видео

Пользователи смогут загружать изображения для проверки через специально разработанное веб-приложение.
В России разработали нейросеть для идентификации фейковых лиц на фото и видео

В университете МИСИС разработали нейросеть для поиска дипфейков на фото и видео. Об этом сообщает "Газета.ру".

Дипфейк — это способ создания поддельного медиаконтента с помощью алгоритмов глубокого обучения. Слово deepfake объединяет в себе два понятия — глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake).

Пользователи смогут загружать изображения для проверки через специально разработанное веб-приложение. Также предусмотрена возможность анализа картинок и видео в реальном времени через камеру компьютера.

Для обучения нейросети разработчики использовали набор данных из 16 500 изображений. Это были как подлинные, так и фейковые изображения. Для обучения использовались печатные фотографии и изображения на экранах электронных устройств, маски и персонажи мультфильмов.

Приложение анализирует информацию в два этапа, их результаты объединяются и проходят через несколько финальных слоев для получения окончательного вывода о подлинности изображения. Этот подход позволил команде достичь высокого значения точности при определении подлинности лиц.

Как россияне относятся к дипфейк-технологиям

Согласно опросу, проведенному по заказу "Лаборатории Касперского", каждый десятый респондент пользуется или по крайней мере пробовал такие нейросети, как дипфейк-технологии, умные чат-боты и генераторы изображений.

Респонденты отмечают, как преимущества, так и риски таких технологий. Наиболее перспективными россиянам кажутся генераторы изображений: мнение, что за ними будущее, разделяют 43% респондентов. Аналогичная точка зрения относительно умных чат-ботов — у 40%, а дипфейк-технологий — у 31%.

Что касается киберрисков, то 45% опрошенных считают, что дипфейк-технологии будут активно использоваться злоумышленниками и недоброжелателями. Часть респондентов боятся, что дипфейк-технологии, умные чат-боты и генераторы изображений могут быть использованы в отношении лично них — 26%, 20% и 17% соответсвенно.

Фото: freepik