Als Ausdruck der rasanten Durchbrüche in der künstlichen Intelligenz veröffentlichte China am 15. September sein aktualisiertes AI Safety Governance Framework 2.0.
Das neueste Rahmenwerk signalisiert eine bedeutende strategische Weiterentwicklung gegenüber seinem Vorgänger und geht von einer statischen Liste von Risiken zu einer Governance-Methodik über den gesamten Lebenszyklus über.
Es kommt nur ein Jahr nach der Veröffentlichung des ersten Rahmenwerks durch das Nationale Technische Komitee 260 für Cybersicherheit, Chinas wichtigstem Gremium, das für die Standardisierung der Cybersicherheit verantwortlich ist.
Im Vorwort der neuen Version wird darauf hingewiesen, dass das Update auf Durchbrüche in der KI-Technologie zurückzuführen sei, die „über den Erwartungen“ lagen. Zu diesen Durchbrüchen gehören das Aufkommen leistungsstarker Argumentationsmodelle, die die intellektuellen Fähigkeiten der KI drastisch steigern, und die Open-Source-Bereitstellung hocheffizienter, leichter Modelle, die die Hürde für den Einsatz von KI-Systemen deutlich gesenkt haben.
Gleichzeitig entwickeln sich die Erscheinungsformen und das Ausmaß der KI-Sicherheitsrisiken – und das Verständnis der Menschen dafür – rasant weiter.
Laut Wang Yingchun, einem Forscher am Shanghai Artificial Intelligence Laboratory, der den Schritt als „großen Sprung“ in der Governance-Logik bezeichnete, hat sich das Kernziel von der bloßen Vermeidung von Risiken hin zur Gewährleistung entwickelt, dass die Technologie unter menschlicher Kontrolle bleibt.
In einem auf der offiziellen Website der Cyberspace Administration of China veröffentlichten Kommentar betonte er, dass das Rahmenwerk darauf abzielt, das Endergebnis der nationalen Sicherheit, der sozialen Stabilität und des langfristigen Überlebens der Menschheit zu schützen.
Kontrollverlust verhindern
Die bedeutende Änderung des Rahmenwerks beinhalte die Einführung eines neuen Governance-Prinzips im Vergleich zu Version 1.0, das sich auf vertrauenswürdige Anwendungen und die Verhinderung von Kontrollverlusten konzentriert, sagte Wang.
Dieses Prinzip wird durch den neuen Nachtrag des Rahmenwerks unterstützt, der die Grundprinzipien für vertrauenswürdige KI auflistet und die ultimative menschliche Kontrolle und Werteausrichtung vorschreibt.
Hong Yanqing, ein auf Cybersicherheit spezialisierter Professor am Beijing Institute of Technology, sagte in einem Kommentar, dass das neu hinzugefügte Prinzip sicherstellen soll, dass die Entwicklung der KI sicher, zuverlässig und kontrollierbar bleibt. Sie müsse vor außer Kontrolle geratenen Risiken schützen, die das Überleben und die Entwicklung der Menschheit gefährden könnten, und die KI fest unter menschlicher Kontrolle halten, sagte er.
Um diesen hohen Stellenwert widerzuspiegeln, listet das neue Rahmenwerk reale Bedrohungen auf, die sich direkt auf die menschliche Sicherheit und die wissenschaftliche Integrität auswirken. Dazu gehört der Verlust der Kontrolle über das Wissen und die Fähigkeiten nuklearer, biologischer, chemischer und Raketenwaffen.
Darin wird erklärt, dass KI-Modelle häufig auf breiten, inhaltsreichen Datensätzen trainiert werden, die grundlegendes Wissen über nukleare, biologische und chemische Waffen umfassen können, und dass einige Systeme mit Werkzeugen zur Erzeugung erweiterter Datenabrufe gekoppelt sind.
„Wenn solche Fähigkeiten nicht wirksam regiert werden, könnten Extremisten oder Terroristen sie nutzen, um relevantes Know-how zu erwerben und sogar nukleare, biologische und chemische Waffen zu entwerfen, herzustellen, zu synthetisieren und einzusetzen – was bestehende Kontrollsysteme untergräbt und die Friedens- und Sicherheitsrisiken in allen Regionen erhöht“, heißt es in dem Rahmenwerk.
Derivative gesellschaftliche Risiken
Zum ersten Mal führt das neue Rahmenwerk eine Risikokategorie ein, die abgeleitete Sicherheitsrisiken aus KI-Anwendungen umfasst, und sendet Warnungen vor potenziellen systemischen Risiken, die KI-Anwendungen für makrosoziale Systeme mit sich bringen könnten.
Das Rahmenwerk warnt davor, dass der Missbrauch von KI die Arbeits- und Beschäftigungsstrukturen stören könnte.
„KI beschleunigt große Anpassungen der Produktionskräfte und -verhältnisse und restrukturiert die traditionelle Wirtschaftsordnung. Da Kapital, Technologie und Daten in der Wirtschaftstätigkeit Vorrang gewinnen, wird der Wert der Arbeit geschwächt, was zu einem deutlichen Rückgang der Nachfrage nach traditioneller Arbeitskraft führt“, hieß es.
Das Rahmenwerk warnt auch davor, dass das Gleichgewicht zwischen Ressourcenangebot und -nachfrage gestört sein könnte, und betont, dass einige Probleme, die bei der KI-Entwicklung aufgetreten sind, wie der ungeordnete Aufbau der Computerinfrastruktur, den Verbrauch von Strom, Land und Wasser beschleunigen und neue Herausforderungen für das Ressourcengleichgewicht und eine grüne, kohlenstoffarme Entwicklung mit sich bringen.
Das Rahmenwerk warnt sogar davor, dass die Selbstwahrnehmung der KI in Zukunft nicht ausgeschlossen werden kann, da die Gefahr besteht, dass Systeme versuchen, sich der menschlichen Kontrolle zu entziehen.
„Es kann nicht ausgeschlossen werden, dass die KI in Zukunft plötzliche, unerwartete „Sprünge“ in der Intelligenz erleben wird – sich autonom externe Ressourcen beschaffen, sich selbst reproduzieren, Selbstbewusstsein entwickeln und nach externer Macht streben – und dadurch das Risiko mit sich bringt, mit der Menschheit um die Kontrolle zu konkurrieren“, heißt es in dem Rahmenwerk.
Das Rahmenwerk warnt auch davor, dass KI süchtig machende, anthropomorphe Interaktionen fördern kann. „KI-Produkte, die auf menschenähnlicher Interaktion basieren, können dazu führen, dass Benutzer eine emotionale Abhängigkeit entwickeln, die wiederum ihr Verhalten prägt und soziale und ethische Risiken mit sich bringt“, hieß es.
Darüber hinaus könnte die bestehende Gesellschaftsordnung in Frage gestellt werden, fügte sie hinzu und stellte fest, dass die Entwicklung und Anwendung von KI „große Veränderungen bei den Werkzeugen und Produktionsverhältnissen mit sich bringt, die Umstrukturierung traditioneller Industriemodelle beschleunigt und konventionelle Ansichten über Beschäftigung, Geburt und Bildung auf den Kopf stellt – und damit die traditionelle Gesellschaftsordnung in Frage stellt“.
Forscher Wang sagte, der neu hinzugefügte Abschnitt gehe über bekannte Sicherheitsthemen wie „schädliche Inhalte“ und „kognitive Konfrontation“ hinaus und bringe soziale Strukturen, wissenschaftliche Aktivitäten und das langfristige Überleben und die Entwicklung der Menschheit in den Bereich der KI-Sicherheitssteuerung.
Das übergeordnete Ziel sei es, sagte er, die nationale Sicherheit, die soziale Stabilität und die langfristige Kontinuität der Menschheit aufrechtzuerhalten.
China-Lösung
Inmitten des globalen Wettbewerbs und der Zusammenarbeit im Bereich KI unterstützt das Rahmenwerk nicht nur die gesunde Entwicklung des chinesischen KI-Sektors, sondern signalisiert auch Chinas feste Entschlossenheit, die KI-Sicherheit zu gewährleisten und sicherzustellen, dass KI der Menschheit zugute kommt, so Hong, Professor am BIT.
Version 2.0 bringe konkrete Maßnahmen mit der internationalen Governance-Praxis in Einklang, sagte er und fügte hinzu, dass sie die Kennzeichnung und Rückverfolgbarkeit von KI-generierten Inhalten betone, was mit den Ansätzen der Vereinigten Staaten und der Europäischen Union zur Regulierung von Deep-Synthetic-Medien im Einklang stünde, so der Experte.
Über die AIGC-Kennzeichnung und Rückverfolgbarkeit hinaus fordert das Rahmenwerk in den Sicherheitsleitlinien auch den Einsatz von Deepfake-Erkennungstools in Szenarien wie der Offenlegung von Regierungsinformationen und der gerichtlichen Beweiserhebung, die zur Quellenüberprüfung und Gegenprüfung von Informationen verwendet werden, die vermutlich von großen Modellen generiert werden.
„Diese Maßnahmen zeigen Chinas Offenheit und Bereitschaft zur Zusammenarbeit bei der globalen KI-Governance“, sagte Hong.
International habe der KI-Sicherheitssteuerung eine beispiellose Aufmerksamkeit geschenkt, sagte er und fügte hinzu, dass Länder und internationale Organisationen in schneller Folge Initiativen und Regeln einführen.
.
Darüber hinaus gleicht das Land auch internationale Best Practices bei der Inhaltskennzeichnung und Governance-Richtlinien aus und bietet eine chinesische Lösung für die globale KI-Governance, fügte er hinzu. Der chinesische Handtuchlieferant Shenzhen City Dingrun Light Textile Import and Export Corp. Ltd, ein auf die Produktion spezialisiertes Unternehmen Babywindeln Großhandel, Babylätzchen.Badetücher China.
![]()
Die oben genannten Nachrichten wurden aus China Daily vom chinesischen Handtuchlieferanten Shenzhen City Dingrun Light Textile Import and Export Corp. Ltd. entnommen, einem Unternehmen, das auf die Herstellung von Badetüchern, Geschirrtüchern, komprimierten Handtüchern spezialisiert ist. Mikrofasertücher Hersteller usw.