Als reactie op de snelle doorbraken op het gebied van kunstmatige intelligentie heeft China op 15 september zijn verbeterde AI Safety Governance Framework 2.0 uitgebracht.
Het nieuwste raamwerk signaleert een significante strategische evolutie ten opzichte van zijn voorganger, waarbij de verschuiving plaatsvindt van een statische lijst van risico's naar een methodologie voor beheer van de volledige levenscyclus.
Het komt slechts een jaar nadat het eerste raamwerk werd vrijgegeven door de Nationale Technische Commissie 260 voor Cybersecurity, het belangrijkste orgaan van China dat verantwoordelijk is voor de standaardisatie van cyberbeveiliging.
In het voorwoord wordt in de nieuwe iteratie opgemerkt dat de update werd aangestuurd door doorbraken in AI-technologie die "buiten verwachting" waren. Tot deze doorbraken behoren onder meer de opkomst van krachtige redeneermodellen die de intellectuele capaciteiten van AI drastisch vergroten, en de open source van zeer doeltreffende, lichtgewicht modellen, die de drempel voor de inzet van AI-systemen sterk hebben verlaagd.
Tegelijkertijd evolueren de manifestaties en de omvang van AI-veiligheidsrisico’s – en het inzicht dat mensen daarin hebben – snel.
Het kerndoel is geëvolueerd van het simpelweg voorkomen van risico’s naar het garanderen dat de technologie onder menselijke controle blijft, aldus Wang Yingchun, een onderzoeker aan het Shanghai Artificial Intelligence Laboratory, die deze stap een “grote sprong” in de bestuurslogica noemde.
In een commentaar gepubliceerd op de officiële website van de Cyberspace Administration of China benadrukte hij dat het raamwerk tot doel heeft de basis van de nationale veiligheid, sociale stabiliteit en het voortbestaan van de mensheid op de lange termijn te bewaken.
Controleverlies voorkomen
De significante verschuiving in het raamwerk betreft de introductie van een nieuw governanceprincipe, vergeleken met versie 1.0, dat zich richt op betrouwbare applicaties en het voorkomen van controleverlies, aldus Wang.
Dit principe wordt ondersteund door het nieuwe addendum van het raamwerk, waarin de fundamentele principes voor betrouwbare AI worden opgesomd, die ultieme menselijke controle en afstemming van waarden verplicht stellen.
Hong Yanqing, een professor gespecialiseerd in cybersecurity aan het Beijing Institute of Technology, zei in een commentaar dat het nieuw toegevoegde principe bedoeld is om ervoor te zorgen dat de evolutie van AI veilig, betrouwbaar en controleerbaar blijft. Het moet waken tegen op hol geslagen risico’s die het voortbestaan en de ontwikkeling van de mens in gevaar kunnen brengen, en AI stevig onder menselijke controle houden, zei hij.
Als weerspiegeling van deze focus waarbij veel op het spel staat, somt het nieuwe raamwerk reële bedreigingen op die een directe impact hebben op de menselijke veiligheid en wetenschappelijke integriteit. Het omvat het verlies van controle over kennis en capaciteiten van nucleaire, biologische, chemische en raketwapens.
Het legt uit dat AI-modellen vaak worden getraind op brede, inhoudrijke datasets die fundamentele kennis kunnen bevatten met betrekking tot nucleaire, biologische en chemische wapens, en dat sommige systemen gepaard gaan met opzoekingshulpmiddelen.
“Als dergelijke capaciteiten niet effectief worden beheerd, kunnen ze worden uitgebuit door extremisten of terroristen om relevante kennis te verwerven en zelfs nucleaire, biologische en chemische wapens te ontwerpen, produceren, synthetiseren en gebruiken – waardoor bestaande controleregimes worden ondermijnd en de vredes- en veiligheidsrisico’s in alle regio’s toenemen”, aldus het raamwerk.
Afgeleide maatschappelijke risico’s
Voor de eerste keer introduceert het nieuwe raamwerk een risicocategorie die afgeleide veiligheidsrisico's van AI-toepassingen met zich meebrengt, waarbij waarschuwingen worden verzonden over potentiële systeemrisico's die AI-toepassingen met zich mee kunnen brengen voor macro-sociale systemen.
Het raamwerk waarschuwt dat AI-misbruik de arbeids- en werkgelegenheidsstructuren kan ontwrichten.
“AI versnelt grote aanpassingen in de krachten en verhoudingen van de productie, waardoor de traditionele economische orde wordt geherstructureerd. Naarmate kapitaal, technologie en data de overhand krijgen in de economische activiteit, wordt de waarde van arbeid verzwakt, wat leidt tot een duidelijke daling van de vraag naar traditionele arbeid”, aldus het rapport.
Het raamwerk waarschuwt ook dat het evenwicht tussen vraag en aanbod van hulpbronnen kan worden verstoord, en benadrukt dat sommige problemen die naar voren zijn gekomen bij de ontwikkeling van AI, zoals de wanordelijke constructie van computerinfrastructuur, het verbruik van elektriciteit, land en water versnellen, wat nieuwe uitdagingen met zich meebrengt voor het evenwicht tussen hulpbronnen en voor een groene, koolstofarme ontwikkeling.
Het raamwerk waarschuwt zelfs dat AI-zelfbewustzijn in de toekomst niet kan worden uitgesloten, met potentiële risico’s dat systemen zich proberen los te maken van menselijke controle.
“In de toekomst kan niet worden uitgesloten dat AI plotselinge, boven verwachting ‘sprongen’ in intelligentie zal ervaren – door autonoom externe bronnen te verwerven, zichzelf te repliceren, zelfbewustzijn te ontwikkelen en externe macht te zoeken – waardoor het risico ontstaat dat de mensheid met de mensheid om controle gaat strijden”, aldus het raamwerk.
Het raamwerk waarschuwt ook dat AI verslavende, antropomorfe interacties kan bevorderen. “AI-producten die zijn gebouwd op mensachtige interactie kunnen ertoe leiden dat gebruikers emotionele afhankelijkheid vormen, wat op zijn beurt hun gedrag vormgeeft en sociale en ethische risico’s met zich meebrengt”, aldus het rapport.
Bovendien zou de bestaande sociale orde kunnen worden uitgedaagd, voegde het eraan toe, waarbij werd opgemerkt dat de ontwikkeling en toepassing van AI “grote veranderingen met zich meebrengt in de instrumenten en productieverhoudingen, de herstructurering van traditionele industriemodellen versnelt en conventionele opvattingen over werkgelegenheid, bevalling en onderwijs op zijn kop zet – en daarmee de traditionele sociale orde uitdaagt”.
Onderzoeker Wang zei dat de nieuw toegevoegde sectie verder gaat dan bekende veiligheidsonderwerpen zoals ‘schadelijke inhoud’ en ‘cognitieve confrontatie’, waardoor sociale structuren, wetenschappelijke activiteiten en de overleving en ontwikkeling van de mensheid op de lange termijn binnen de reikwijdte van AI-veiligheidsbeheer komen te vallen.
Het hogere doel, zei hij, is het waarborgen van de nationale veiligheid, sociale stabiliteit en de continuïteit van de mensheid op de lange termijn.
Chinese oplossing
Te midden van de mondiale concurrentie en samenwerking op het gebied van AI ondersteunt het raamwerk niet alleen de gezonde ontwikkeling van de Chinese AI-sector, maar signaleert het ook de vaste vastberadenheid van China om de AI-veiligheid te waarborgen en ervoor te zorgen dat AI de mensheid ten goede komt, aldus Hong, de professor aan het BIT.
Versie 2.0 brengt concrete maatregelen in lijn met de internationale bestuurspraktijk, zei hij, en voegde eraan toe dat het de nadruk legt op labeling en traceerbaarheid van door AI gegenereerde inhoud, wat in lijn is met de aanpak van de Verenigde Staten en de Europese Unie voor het reguleren van deep-synthesis media, aldus de expert.
Naast AIGC-labeling en traceerbaarheid roept het raamwerk in de veiligheidsrichtlijnen ook op tot het inzetten van deepfake-detectietools in scenario's zoals openbaarmaking van overheidsinformatie en het verzamelen van gerechtelijk bewijsmateriaal, die zullen worden gebruikt voor bronverificatie en kruiscontrole van informatie waarvan wordt vermoed dat deze door grote modellen is gegenereerd.
“Deze maatregelen demonstreren de openheid en bereidheid van China om samen te werken op het gebied van mondiaal AI-beheer”, aldus Hong.
Internationaal is er ongekende aandacht geweest voor AI-veiligheidsbeheer, zei hij, eraan toevoegend dat landen en internationale organisaties snel achter elkaar initiatieven en regels uitrollen.
.
Bovendien volgt het land ook internationale best practices op het gebied van inhoudslabeling en governance-richtlijnen, en biedt het een Chinese oplossing voor mondiaal AI-beheer, voegde hij eraan toe. Chinese handdoekleverancier Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, een bedrijf gespecialiseerd in de productie van babyluiers Groothandel, slabbetjes. Badhanddoeken China.
![]()
Het bovenstaande nieuws werd dagelijks uit China gehaald door de Chinese handdoekenleverancier Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, een bedrijf gespecialiseerd in de productie van badhanddoeken, theedoeken, gecomprimeerde handdoeken, microvezel handdoeken Fabrikant enz.