Ce n’est pas à moi de dire que vous ne connaissez peut-être pas vraiment la différence entre les graphiques d’IA
Mis à jour le : 28-0-0 0:0:0

Aujourd’hui, il est de plus en plus difficile de faire la distinction entre les images d’IA.

En quelques secondes, pouvez-vous dire laquelle des quatre images ci-dessous est générée par l’IA ?

Faites la question en premier, ne soulignez pas pour jeter un coup d’œil à la réponse !

En fait, il n’y en a qu’iciEn bas à gaucheC’est une vraie photo. Je ne sais pas si vous avez bien deviné, en tout cas, les amis de la rédaction pensent que c’est très difficile.

En l’état actuel des choses, les images d’IA sont devenues de plus en plus difficiles à distinguer entre les vraies et les fausses, et même de nombreux outils de détection d’IA ont échoué.

Disons-le de cette façon, certaines des images générées auparavant sont de style bande dessinée, certaines ont des membres et des traits du visage étranges, et des arrière-plans déraisonnables, bref, elles sont pleines de failles, et parfois elles sont assez effrayantes.

Mais il y a quelque temps, dès que GPT-4o a été mis à niveau, la capacité de la carte Wensheng du grand modèle était directement superbe. Par exemple, le « selfie » dans le coin supérieur droit est généré par les mots d’incitation suivants :

Le grand modèle peut même comprendre des exigences abstraites telles que la « médiocrité », la « négligence », l'"ambiguïté », la « surexposition », etcL’image qui en résulte est comme une photo fortuite dans nos vies, et il n’y a aucun sentiment de désobéissance du tout.

Plus précisément, comment ces modèles donnent aux graphiques de l’IA un aspect réel et faux, le responsable n’a pas encore ouvert leur architecture d’entraînement.

Cependant, sur le site officiel d’OpenAI, nous avons trouvé quelques indices.

Les responsables disent que lorsqu’ils entraînent le modèle, ils peuvent lui faire mieux comprendre l’association entre le langage et les images. Couplé au mystérieux « post-entraînement », les résultats générés peuvent sembler lisses.

Par conséquent, lorsque nous donnons des mots abstraits, tels que « négligent », le modèle peut savoir que l’angle de l’image doit être un peu tordu, l’image doit être un peu molle, l’expression doit être naturelle, etc., et il peut être parfaitement affiché.

Avec le développement rapide de la technologie, nous ne pouvons vraiment rien faire contre les organismes à base de carbone.

Mais ce qui est encore plus désespéré, c’est que les résultats expérimentaux montrent que cette fois-ci, la base de silicium est également indiscernable.

Nous avons d’abord essayé de voir si la lance du grand modèle pouvait percer son propre bouclier. Il n’est pas surprenant que le type original de fausse image d’IA, comme nous, puisse être facilement distingué. Mais maintenant, la même photo, lancée à Doubao et GPT, ils pensent tous les deux qu’il s’agit d’un vrai selfie.

Bean Bao ne peut pas dire que cette image est générée par l’IA

En plus des tests avec de grands modèles, nous avons également trouvé deux détecteurs d’images IA gratuits qui recommandent les meilleurs classements.En conséquence, chacun d’entre eux s’est effondré à sa manière.

Nous avons testé huit images de portrait IA totalement invisibles à l’œil nu. Il y en a quatre sur lesquelles ils sont d’accord, mais ils s’accordent à dire que ce sont toutes de vraies photos...

Il y en a quatre autres, et les avis des deux détecteurs sont complètement opposés. Je pensais qu’ils copiaient les devoirs de l’autre, mais maintenant je n’en doute plus, car cette fois, les mauvaises questions sont toutes différentes.

Bref, c’est juste pour le faire

Il ne s’agit que d’un portrait relativement simple, l’image est centrée sur le visage avant de la personne et l’arrière-plan est relativement simple.

Le prochain test de certaines scènes complexes est encore plus misérable, avec un grand nombre de personnes ou des arrière-plans trop détaillés, ou même de simples images de paysages, qui rendent le détecteur presque complètement anéanti. Si le détecteur est un peu sceptique à l’égard des selfies de l’IA, il les croit vraiment lorsqu’il s’agit de ces images.

C’est juste qu’il ne peut pas être reconnu, et il y a un détecteur qui a accidentellement blessé et jugé qu’une vraie photo était une image IA.

Il y a une chose à dire, le ciel des amoureux d’Internet est tombé, et je ne peux vraiment pas dire s’il s’agit d’une photo ou d’une photo à l’avenir.Les images P-Pictures peuvent laisser des traces, mais les images actuelles de l’IA amènent les gens à se demander si ce n’est pas une célébrité d’Internet qui va tomber amoureuse de moi.

Alors, pourquoi les outils de détection de l’IA ne fonctionnent-ils pas maintenant ?

Lors de nos recherches, nous avons constaté que, bien que le développement de la technologie des graphes de Wensheng soit comme celui d’une fusée, la détection d’images par IA est toujours utilisée sur un vélo de réseau neuronal convolutif pendant de nombreuses années.

Étant donné que la plupart des outils n’ouvrent pas leur code source, nous avons trouvé plusieurs projets de détection d’images d’IA sur GitHub comme références.

Nous avons constaté que l’architecture de ces outils de détection d’IA en est encore au stade de l’ensemble de données + reconnaissance convolutive des caractéristiques + classification.

Ceux qui sont familiers avec la vision par ordinateur savent peut-être que ce processus est suivi depuis N ans : étiquetez d’abord chaque image de l’ensemble de données si elle est générée ou non par l’IA, et le réseau neuronal apprendra les caractéristiques d’image correspondantes de l’étiquette, et enfin la classifiera.

La technologie de cartographie de l’IA a été mise à jour l’une après l’autre, et tout ce que ces outils font est d’étiqueter de nouveaux graphiques d’IA, de les ajouter à d’anciens ensembles de données et de les réentraîner.Même le modèle CvT-4 pour l’un des outils est déjà une vieille chose d’il y a 0 ans.

On peut dire que la magie est d’un pied de haut, que la route est d’un pouce de haut, que la technologie elle-même n’a pas été mise à jour et que le taux de précision ne peut certainement pas augmenter.

Architecture du CvT-13

Bien qu’il existe des études universitaires liées à la reconnaissance d’images d’IA, la vitesse, la quantité et l’attention de la recherche ne sont pas comparables à celles des diagrammes de Wensheng de grands modèles.

Cependant, au lieu d’une post-séparation longue et laborieuse, il est préférable de résoudre le problème à la source.

Par exemple, l’organisation C2PA, qui est prônée conjointement par de grandes entreprises d’IA, encourage l’élaboration de normes pertinentes pour faciliter la vérification de la source de l’information et éviter la prolifération du contenu de l’IA.

Parmi eux, OpenAI a déclaré qu’il essaiera de filigraner les images générées. Google a également proposé synthID, qui peut intégrer des filigranes numériques dans du texte, des images, des vidéos et de l’audio générés par l’IA. Ce filigrane n’affecte pas notre perception, mais il peut être reconnu par le logiciel.

而且,在今年 3 月国家颁布的《 人工智能生成合成内容标识办法 》中明确表示,从 2025 年 9 月起,所有 AI 生成的内容都必须添加显式或隐式标识。

Alors, pourquoi devons-nous faire la distinction entre les graphes d’IA ? N’est-ce pas une bonne chose que vous ne puissiez pas faire la différence entre la puissance technique maximale ?

Le tableau est vraiment puissant, mais nous devons regarder les deux côtés de la médaille.Parce que lorsque les images de l’IA ont choqué le monde, les nouvelles de l’utilisation de l’IA pour commettre des fraudes et des crimes étaient encore fréquemment exposées. Plus l’IA est réaliste, plus la probabilité que nous soyons arnaqués est élevée.

Après tout, certaines personnes ne pensent pas à la façon d’utiliser l’IA pour générer de jolies images de style Ghibli, mais utilisent plutôt les images les plus réalistes pour attaquer les points les plus faibles de chacun.

En général, il est maintenant difficile pour nous de distinguer nous-mêmes les vraies des fausses images d’IA.

Qu’il s’agisse d’identifier des outils ou de marquer le contenu de l’IA à la source, la technologie actuelle est un peu en retard, mais le besoin est urgent.

De cette façon, différencier le contenu de l’IA sera une bataille constante. Lorsque les grandes entreprises s’engagent dans la technologie des croquis et montrent leurs muscles, il est temps d’envisager la mise à niveau de la technologie de reconnaissance de l’IA.