Не мне говорить, что вы, возможно, не знаете разницы между графиками ИИ
Обновлено: 28-0-0 0:0:0

Теперь становится все труднее и труднее различать изображения ИИ.

Потратив несколько секунд, сможете ли вы сказать, какое из четырех изображений ниже создано искусственным интеллектом?

Сначала ответьте на вопрос, не подчеркивайте его, чтобы заглянуть в ответ!

На самом деле, есть только здесьВнизу слеваЭто реальная фотография. Не знаю, правильно ли вы догадались, во всяком случае, друзья в редакции считают, что это очень сложно.

В настоящее время изображения с помощью ИИ становится все труднее отличить настоящие от поддельных, и даже многие инструменты обнаружения ИИ не сработали.

Скажем так, некоторые из сгенерированных ранее картинок выполнены в шуточном стиле, некоторые имеют странные конечности и черты лица, а также неразумный фон, короче говоря, в них полно лазеек, а иногда и довольно страшные.

Но некоторое время назад, как только GPT-4o был модернизирован, возможности карты Вэньшэн большой модели были просто превосходными. Например, «селфи» в правом верхнем углу генерируется следующими словами-подсказками:

Большая модель может даже понимать абстрактные требования, такие как «посредственность», «небрежность», «двусмысленность», «передержка» и так далееПолученная картина похожа на случайный снимок в нашей жизни, и в ней нет никакого чувства неповиновения.

В частности, о том, как эти модели заставляют графику ИИ выглядеть реальной и поддельной, чиновник еще не открыл исходный код их обучающей архитектуры.

Тем не менее, на официальном сайте OpenAI мы нашли некоторые подсказки.

Чиновники говорят, что когда они обучают модель, они могут помочь ей лучше понять связь между языком и изображениями. В сочетании с таинственным «пост-тренингом» полученные результаты могут выглядеть гладкими.

Поэтому, когда мы даем какие-то абстрактные слова, такие как «небрежный», модель может знать, что угол изображения должен быть немного кривым, картинка должна быть немного мягкой, выражение должно быть естественным и т.д., и это может быть идеально отображено.

С быстрым развитием технологий мы действительно ничего не можем поделать с организмами, основанными на углероде.

Но что еще более отчаянно, так это то, что результаты экспериментов показывают, что на этот раз кремниевая основа также неразличима.

Сначала мы попытались посмотреть, сможет ли копье большой модели пробить собственный щит. Неудивительно, что оригинальный вид поддельного изображения ИИ, как и мы, можно легко отличить. Но теперь, одна и та же фотография, брошенная Beanbao и GPT, они оба думают, что это настоящее селфи.

Бин Бао не может сказать, что это изображение создано искусственным интеллектом

В дополнение к тестированию на больших моделях, мы также нашли два бесплатных детектора изображений с искусственным интеллектом, которые рекомендуют самые высокие рейтинги.В итоге каждый из них рухнул по-своему.

Мы протестировали восемь портретных изображений с искусственным интеллектом, которые были совершенно невидимы невооруженным глазом. Четверо из них согласились, но они согласились, что все они были настоящими фотографиями...

Есть еще четыре, и мнения двух детекторов совершенно противоположные. Я думал, что они копируют домашнее задание друг друга, но теперь я в этом не сомневаюсь, потому что в этот раз все другие неправильные вопросы.

Короче говоря, это просто для того, чтобы это сделать

Это всего лишь относительно простой портрет, картинка сфокусирована на лице человека, а фон относительно простой.

Следующий тест некоторых сложных сцен еще более убогий, с большим количеством людей или слишком детализированными фонами, или даже простыми пейзажными картинками, которые делают детектор практически полностью уничтоженным. Если детектор немного скептически относится к селфи с искусственным интеллектом, он действительно верит им, когда дело доходит до этих изображений.

Просто его невозможно распознать, а есть детектор, который случайно ранил и расценил реальную фотографию как изображение ИИ.

Можно сказать одно, небо любителей онлайн упало, и я действительно не могу сказать, будет ли это фото или фото в будущем.P-картинки могут оставлять следы, но нынешние фотографии с искусственным интеллектом действительно заставляют людей задуматься, не влюбится ли в меня интернет-знаменитость.

Так почему же инструменты обнаружения ИИ сейчас не работают?

При поиске мы обнаружили, что, хотя развитие графовой технологии Wensheng похоже на ракету, обнаружение изображений с помощью искусственного интеллекта все еще ездит на велосипеде сверточной нейронной сети в течение многих лет.

Поскольку большинство инструментов не открывают исходный код, мы нашли несколько проектов по обнаружению изображений ИИ на GitHub в качестве ссылок.

Мы обнаружили, что архитектура этих инструментов детектирования ИИ все еще находится на стадии датасет + сверточное распознавание признаков + классификация.

Те, кто знаком с компьютерным зрением, могут знать, что этот процесс повторяется уже N лет: сначала помечают каждое изображение в наборе данных с помощью ИИ или без него, а остальное оставляют нейронной сети, чтобы она изучила соответствующие особенности изображения метки и, наконец, классифицировала его.

Технология картографирования ИИ обновляется одна за другой, и все, что делают эти инструменты, — это маркируют новые графики ИИ, добавляют их в старые наборы данных и переобучают их.Даже модель CvT-4 для одного из инструментов это уже старое дело 0 летней давности.

Можно сказать, что магия в один фут высотой, дорога в один дюйм в высоту, сама технология не обновлялась, и уровень точности, безусловно, не может повыситься.

Архитектура CvT-13

Несмотря на то, что существуют некоторые академические исследования, связанные с распознаванием изображений ИИ, скорость, количество и внимание исследований не сравнимы с большими моделями диаграмм Вэньшэна.

Однако вместо трудоемкого и трудоемкого пост-сепарации лучше решить проблему у источника.

Например, организация C2PA, которую совместно отстаивают крупные компании, занимающиеся искусственным интеллектом, поощряет разработку соответствующих стандартов, чтобы упростить проверку источника информации и избежать распространения контента ИИ.

Среди них OpenAI заявила, что попытается поставить водяные знаки на сгенерированные изображения. Google также предложил synthID, который может встраивать цифровые водяные знаки в текст, изображения, видео и аудио, созданные искусственным интеллектом. Этот водяной знак не влияет на наше восприятие, но его может распознать программное обеспечение.

而且,在今年 3 月国家颁布的《 人工智能生成合成内容标识办法 》中明确表示,从 2025 年 9 月起,所有 AI 生成的内容都必须添加显式或隐式标识。

Так почему же мы должны различать графики ИИ? Разве это не хорошо, что вы не можете увидеть разницу между максимальной технической мощностью?

Картина действительно впечатляющая, но мы должны смотреть на обе стороны всего.Потому что, когда изображения с искусственным интеллектом шокировали мир, новости об использовании искусственного интеллекта для совершения мошенничества и преступлений все еще часто появлялись. Чем реалистичнее ИИ, тем выше вероятность того, что нас обманут.

В конце концов, некоторые люди не думают о том, как использовать искусственный интеллект для создания симпатичных изображений в стиле Ghibli, а вместо этого используют самые реалистичные изображения, чтобы атаковать самые слабые места каждого.

Вообще, нам сейчас сложно самостоятельно отличить настоящие изображения от поддельных.

Будь то идентификация инструментов или пометка контента ИИ в источнике, текущие технологии немного отсталы, но потребность в них актуальна.

Таким образом, дифференциация контента ИИ будет постоянной борьбой. Когда крупные компании занимаются технологией скетчей и демонстрируют свои мускулы, самое время задуматься о модернизации технологии распознавания ИИ.