. Один из дипфейков сразу 81% участников опроса посчитали настоящим снимком
оMWS AI: более 60% россиян не смогли отличить дипфейк от фотографии
Большинство россиян посчитало 3 из 6 реальных фотографий сгенерированными
Более 60% россиян не сумели отличить фотографии, сгенерированные искусственным интеллектом (ИИ), от настоящих. Об этом стало известно в ходе исследования, проведенного аналитиками MWS AI (дочерняя структура МТС Web Services), данные есть в распоряжении РБК Life.
1600 россиянам в возрасте старше 18 лет предложили определить, какие изображения созданы при помощи нейросетей, а какие являются фотографиями: среди 10 изображений 4 были сгенерированы ИИ, а 6 — реальными снимками. При этом три из четырех ИИ-фотографий, создала специализированная нейросеть, заточенная именно под генерацию дипфейков. Четвертый снимок выполнен с помощью обычной большой языковой модели на основе текстового описания.
Опрос выявил, что изображение, созданное с помощью обычной модели, чаще распознается как ненастоящее — 76% опрошенных верно определили, что фотография, созданная нейросетью, — фейк.
Уровень распознавания фотографий, созданных специализированными нейросетями для генерации человеческих лиц, оказался существенно ниже. Все три сгенерированных портрета большинство респондентов приняли за изображения реальных людей — в каждом случае правильных ответов оказалось менее 40%. А один из дипфейков — сразу 81% участников опроса посчитали фотографией реального человека.
«Это объясняется особенностями целевого назначения моделей — нейросети, разработанные исключительно для генерации лиц, за последние годы научились точно воспроизводить текстуру кожи, симметрию черт и светотеневые переходы, благодаря чему итоговое изображение становится практически неотличимым от реальной фотографии», — пояснили редакции РБК Life авторы исследования.