Logo, damit KI-generierte Inhalte "die Identität aufwerten"
Aktualisiert am: 32-0-0 0:0:0

【Wirtschaftliche Schnittstelle】

Mitten in der Nacht suchen manche Leute danach, um online zu chatten und Trost zu finden. Wenn ein Video auf den Markt gebracht wird, verwendet es jemand, um schnell Marketingtexte zu erstellen. Bei Klassentreffen wird es von manchen Leuten verwendet, um vor Ort Gedichte zu verfassen...... Es ist das, was viele Menschen einen "guten Helfer im Leben" und einen "guten Partner für die Arbeit" nennen – ein großes Modell der künstlichen Intelligenz (KI).

In jüngster Zeit wurden eine Reihe von großformatigen Modellprodukten geboren und haben die Welt erobert und erneut einen Boom der künstlichen Intelligenz ausgelöst. Gleichzeitig gibt es aber auch einige Menschen, die künstliche Intelligenz nutzen, um gefälschte Inhalte zu generieren und zu synthetisieren, Aufmerksamkeit zu erregen, Traffic zu generieren oder zu versuchen, das Echte mit Unwahrheiten, Gerüchten und Betrug usw. zu verwechseln, was bestimmte Risiken und versteckte Gefahren mit sich bringt und soziale Besorgnis hervorruft.

  近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《办法》)。《办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为,将于2025年9月1日起施行。

Wie kann man KI-generierte synthetische Inhalte dazu bringen, "Identität zu offenbaren" und nicht mehr "schwer zwischen echt und gefälscht zu unterscheiden"? Wie kann das Problem der KI-Sicherheitsgovernance gelöst werden? Der Reporter führte dazu ein Interview.

Die Synthese der künstlichen Intelligenz macht es schwierig, zwischen dem Echten und dem Falschen zu unterscheiden

Kätzchen und Welpen tanzen zur Musik, und das "süße Baby" kämpft zu Hause gegen den Hahn...... Auf Kurzvideoplattformen werden von Zeit zu Zeit ähnliche Videos gewischt. Tatsächlich sind einige "magische Videos" mit einer großen Anzahl von Spreads und Likes nicht echt, sondern werden von künstlicher Intelligenz generiert und synthetisiert.

Die sogenannten KI-generierten synthetischen Inhalte beziehen sich auf Texte, Bilder, Audio, Video, virtuelle Szenen und andere Informationen, die von der Technologie der künstlichen Intelligenz generiert und synthetisiert werden.

In den letzten Jahren hat die rasante Entwicklung der Technologie der künstlichen Intelligenz bequeme Werkzeuge für die Generierung von synthetischen Texten, Bildern, Audio-, Video- und anderen Informationen bereitgestellt, und massive Informationen können schnell generiert und synthetisiert und auf Online-Plattformen verbreitet werden, was nicht nur die wirtschaftliche Entwicklung fördert, Online-Inhalte bereichert und das öffentliche Leben erleichtert, sondern auch Probleme wie den Missbrauch der generativen Synthesetechnologie und die Zerstörung der Netzwerkökologie mit sich bringt, die die Aufmerksamkeit aller Bereiche der Gesellschaft erregt haben.

"Einige Zuschauer, die die Filme und Fernsehdramen mögen, in denen ich mitgespielt habe, wurden durch das KI-Face-Swapping-Video sehr getäuscht, was sehr schlecht ist." Ein Schauspieler sagte, er hoffe, dass bessere Normen etabliert werden könnten. Tatsächlich haben viele Persönlichkeiten des öffentlichen Lebens ähnliche Probleme erlebt.

  公安部数据显示,近两年来,全国共发生“AI换脸”类诈骗案近百起,累计造成的经济损失高达2亿元。

"Der zunehmende Realismus von KI-generierten synthetischen Inhalten hat auch zu neuen Sicherheitsrisiken wie der Verbreitung von Falschmeldungen, Identitätsdiebstahl und bösartigen Inhalten geführt und das Vertrauen der Öffentlichkeit in Online-Inhalte geschwächt." Chen Chun, Akademiker der Chinesischen Akademie für Ingenieurwesen und Professor an der Zhejiang Universität, sagte.

Liu Quan, stellvertretender Chefingenieur des China Electronic Information Industry Development Research Institute, glaubt, dass es ein Problem der Unerklärlichkeit im Modell der künstlichen Intelligenz selbst gibt. Der Funktionsmechanismus des großen Modells ist undurchsichtig, und das resultierende "Blackbox"-Attribut führt zu Unerklärlichkeit. Diese Art der Unerklärbarkeit verringert die Glaubwürdigkeit und ermöglicht es, dass die Ausgabeinhalte mit sachlichen Fehlern und Verzerrungen versehen sind, insbesondere in den Bereichen medizinische Versorgung und Finanzen, was den strengen Glaubwürdigkeitsanforderungen nur schwer gerecht wird.

Liu Xiaochun, Direktor des Forschungszentrums für Rechtsstaatlichkeit im Internet an der Universität der Chinesischen Akademie der Sozialwissenschaften, sagte, dass der Zeitaufwand für die "Fälschung" und "Fälschung" von Inhalten durch die Generierung und Synthese von künstlicher Intelligenz reduziert wurde, insbesondere in den Bereichen Bilder, Audio und Video. Sie stellt eine Herausforderung für die Ordnung des Cyberspace, einschließlich der Content-Governance, dar und stellt immer höhere Anforderungen an Governance-Instrumente, -Mittel und -Mittel.

Den Daten zufolge wurden bis Ende 238 insgesamt 0 generative KI-Dienstleistungen bei der Cyberspace Administration of China eingereicht, von denen 0 in diesem Jahr neu eingereicht wurden.

"Gegenwärtig können große Modelle Texte, Porträts, Szenen und Audiodateien mit hoher Wiedergabetreue erzeugen, und es ist für normale Menschen oft schwierig, die Authentizität von Inhalten ohne die Hilfe von Erkennungswerkzeugen zu erkennen." Cao Juan, Direktor und Forscher des Labors für die Synthese digitaler Inhalte und die Erkennung von Fälschungen des Instituts für Computertechnologie der Chinesischen Akademie der Wissenschaften, ist der Ansicht, dass mit der Anwendung der generativen Technologie der künstlichen Intelligenz in verschiedenen Branchen der Umfang der durch synthetische Inhalte generierten Daten schnell wächst und die Kosten für eine umfassende Erkennung der generierten Inhalte zu hoch sind. Die Anwendungsszenarien für die Generierung synthetischer Inhalte wurden stark erweitert, was zur Diversifizierung der Täuschungsszenarien beigetragen hat.

Entwickeln Sie vertrauenswürdige KI-Technologie

Die Einführung der Maßnahmen ist eine wichtige Maßnahme für China, um die Sicherheitsgovernance im Bereich der künstlichen Intelligenz zu fördern, die gesunde Entwicklung industrieller Normen zu fördern und die Technologie für immer zu lenken, was einen wichtigen Schritt zum Aufbau eines sicheren und vertrauenswürdigen Ökosystems im Bereich der generativen künstlichen Intelligenz darstellt.

Nach Angaben der zuständigen Person, die für die Cyberspace-Verwaltung Chinas verantwortlich ist, konzentrieren sich die "Maßnahmen" auf die Lösung der Probleme "was wird generiert", "wer generiert" und "wo wird generiert", fördern das Sicherheitsmanagement des gesamten Prozesses von der Generierung bis zur Verbreitung und streben danach, eine zuverlässige Technologie der künstlichen Intelligenz zu schaffen.

Für Diensteanbieter wird in den Maßnahmen festgelegt, dass den generierten und synthetisierten Inhalten wie Text, Audio, Bildern, Videos und virtuellen Szenen explizite Kennzeichnungen hinzugefügt werden müssen und dass bei der Bereitstellung von Funktionen wie dem Herunterladen, Kopieren und Exportieren der generierten und synthetisierten Inhalte sichergestellt werden muss, dass die Dateien explizite Markierungen enthalten, die den Anforderungen entsprechen. Den Metadaten der Datei, die den synthetischen Inhalt generiert hat, sollte ein impliziter Bezeichner hinzugefügt werden.

Für Plattformen für den Vertrieb von Internetanwendungen sehen die Maßnahmen vor, dass der Anbieter von Internetanwendungen, wenn eine Anwendung in die Regale gestellt oder online überprüft wird, erklären muss, ob er Dienstleistungen zur Generierung und Synthese von künstlicher Intelligenz erbringt, und die Materialien im Zusammenhang mit der Identifizierung der generierten synthetischen Inhalte überprüft.

Für Nutzer wird in den Maßnahmen vorgeschlagen, dass ein Nutzer, der einen Dienst zur Verbreitung von Online-Informationsinhalten nutzt, um synthetische Inhalte zu veröffentlichen und zu generieren, die Initiative ergreift, die vom Diensteanbieter bereitgestellte Identifizierungsfunktion zu deren Identifizierung zu melden und zu nutzen.

Darüber hinaus darf keine Organisation oder Einzelperson die in diesen Maßnahmen vorgesehenen Identifikatoren für generierte synthetische Inhalte böswillig löschen, manipulieren, fälschen oder verbergen, darf keine Tools oder Dienste für andere bereitstellen, um das oben beschriebene böswillige Verhalten auszuführen, und darf die rechtmäßigen Rechte und Interessen anderer nicht durch unsachgemäße Kennzeichnungsmethoden verletzen.

"Die Maßnahmen verbessern die Sicherheit zu vertretbaren Kosten, fördern die beschleunigte Implementierung von künstlicher Intelligenz in verschiedenen Anwendungsszenarien wie Textdialog, Inhaltsproduktion und Hilfsdesign und verringern gleichzeitig den Schaden des Missbrauchs von Technologien zur Generierung und Synthese künstlicher Intelligenz, verhindern den Einsatz von Technologien der künstlichen Intelligenz zur Produktion und Verbreitung falscher Informationen und anderer riskanter Verhaltensweisen und fördern die gesunde und geordnete Entwicklung der künstlichen Intelligenz." Sagte der Zuständige.

Zhang Linghan, Professor am Institute of Data Rule of Law an der China University of Political Science and Law, ist der Ansicht, dass das KI-generierte System zur Identifizierung von Inhalten einen einzigartigen institutionellen Wert hat. Die Identifizierung kann die von künstlicher Intelligenz erzeugten und synthetisierten Informationen effektiv unterscheiden und die Verbreitung und Verwendung falscher Informationen verhindern. Identifikatoren können Benutzern helfen, die relevanten Attribute oder Parameterinformationen von generativen KI-Produkten und -Dienstleistungen schnell zu verstehen. Die Identifizierung kann die Regulierungsbehörden bei der Bewertung und Rückverfolgbarkeit von generativen KI-Produkten oder -Dienstleistungen unterstützen und die legale und konforme Entwicklung von KI-generierten synthetischen Inhalten fördern.

Zhang Linghan sagte, dass sich das Identifikationssystem von KI-generierten synthetischen Inhalten derzeit hauptsächlich auf die Formbeurteilung konzentriert, "ob sie maschinell generiert sind". Mit dem Fortschritt und der Entwicklung der Identifikationstechnologie kann das zukünftige Identifikationssystem eine reichhaltigere Funktion spielen, indem es allmählich von der Formbeurteilung zur Qualitätsbeurteilung "ob es zuverlässig genug ist" übergeht und die gesunde Entwicklung der Branche weiter fördert.

Security Governance dringt in den "Tiefwasserbereich" vor

Gute Gesetze und gute Regierungsführung konzentrieren sich auf die Umsetzung.

Um die Umsetzung der "Maßnahmen" zu fördern, wurde gleichzeitig der verbindliche nationale Standard "Network Security Technology - Methods for Identifying Artificial Intelligence Generated and Synthetic Content" veröffentlicht, um relevante Stellen besser bei der Standardisierung von Identifizierungsaktivitäten zu unterstützen.

"Gegenwärtig hat sich die KI-Sicherheitsgovernance von der Gefahrendiskussion in den Tiefenbereich der tatsächlichen Strafverfolgung verlagert." Cao Juan sagte, dass die iterative Aktualisierung der Technologie zur Generierung großer Modelle sehr schnell ist und neue Meilensteinmodelle in durchschnittlich zwei Monaten erscheinen werden, daher ist es wichtig, die Verallgemeinerungsfähigkeit neuer Fälschungsmethoden zu verbessern, und es ist notwendig, den nachträglichen Gedanken des "One Shot" aufzugeben und ein KI-Fälschungsbasismodell zu erstellen, um die Verallgemeinerung und Anwendbarkeit des Fälschungserkennungsmodells zu verbessern.

Cao Juan sagte, dass es notwendig sei, die Technologie der präzisen Konfrontation und Fälschung zu untersuchen, um böswillige Umgehungsrisiken zu vermeiden. Gleichzeitig ist es notwendig, die Auswirkungen auf die Verbreitung harmloser generierter Inhalte zu verringern, die Entwicklung und Steuerung der Anwendung generierter Inhalte zu berücksichtigen, ein nationales Instrument zur Erkennung von Fälschungen zu schaffen und die Nutzung von Fälschungen durch alle zu fördern.

"Es ist absehbar, dass Chinas Strafverfolgung im Bereich der künstlichen Intelligenz die Richtung der Überwachung wichtiger Angelegenheiten fortsetzen und die geordnete Entwicklung der Branche fördern wird." Jin Bo, stellvertretender Direktor des Dritten Forschungsinstituts des Ministeriums für öffentliche Sicherheit, sagte, dass mit der allmählichen organischen Verbindung zwischen Logo-Management und Algorithmus-Ablage, Sicherheitsbewertung und anderen Mechanismen die Einhaltung der Identifizierung generierter synthetischer Inhalte zu einem wichtigen Schwerpunktbereich für die zuständigen Abteilungen werden kann, um die Überwachung und Inspektion künstlicher Intelligenz sowie spezielle Maßnahmen durchzuführen. In diesem Prozess muss noch eingehend untersucht werden, wie Entwicklung und Sicherheit, Innovation und Verantwortung in Einklang gebracht und das professionelle, raffinierte und intelligente Niveau der Strafverfolgung verbessert werden können, um ein sicheres, offenes und faires ökologisches Umfeld für die Branche der künstlichen Intelligenz zu schaffen.

"Darüber hinaus sollte der 'Faktor Mensch' in den gesamten Prozess des KI-Identifikationsmanagements integriert werden." Jin Bo sagte, dass es notwendig sei, sich darauf zu konzentrieren, die Fähigkeit der Öffentlichkeit zu verbessern, die Authentizität von Informationsinhalten und die Rückverfolgbarkeit von Quellen zu bewerten, die Kompetenz der Öffentlichkeit im Bereich der künstlichen Intelligenz aktiv zu fördern und den inklusiven Austausch von Errungenschaften der Technologie der künstlichen Intelligenz sicherzustellen.

Nach Ansicht von Chen Chun ist die Umsetzung der "Maßnahmen" untrennbar mit dem Zusammenhalt und der Koordination der gesamten Gesellschaft verbunden. Lokal zuständige Fachabteilungen, Universitäten, wissenschaftliche Forschungseinrichtungen und Unternehmen können sich gemeinsam zu einem mehrstufigen kollaborativen Content-Governance-Netzwerk zusammenschließen, das bei der Identifizierungsarbeit Vorrang hat und die stetige und weitreichende Entwicklung der Identifizierungsarbeit fördert. Darüber hinaus ist es notwendig, eine nationale öffentlich-rechtliche Plattform für die Kennzeichnung von Inhalten einzurichten und das vertiefte Verständnis der Öffentlichkeit und der Industrie in Form von visuellen und interaktiven praktischen Übungen zu fördern.

"Generative KI hat zur Entwicklung der Informationstechnologie von einem gewöhnlichen Werkzeug zu einem hochintelligenten Werkzeug vom Typ 'denkender Partner' geführt, das disruptive Entwicklungsmöglichkeiten mit sich bringt, und sie wird in Zukunft sicherlich zu einer wesentlichen Fähigkeit für uns werden, die erfordert, dass wir KI richtig verstehen und verwalten, wenn wir sie einsetzen." Sagte Chen Chun.

(Guangming Daily-Reporter Liu Kun, Guangming Daily-Korrespondent Liu Suwen)

Quelle: Guangming Daily