Con una mossa che riflette le rapide scoperte nel campo dell’intelligenza artificiale, il 15 settembre la Cina ha pubblicato il suo quadro aggiornato di governance della sicurezza dell’intelligenza artificiale 2.0.
L’ultimo quadro segnala una significativa evoluzione strategica rispetto al suo predecessore, passando da un elenco statico di rischi a una metodologia di governance dell’intero ciclo di vita.
Ciò avviene appena un anno dopo il rilascio del primo quadro da parte del Comitato tecnico nazionale 260 sulla sicurezza informatica, l’organismo chiave cinese responsabile della standardizzazione della sicurezza informatica.
Nella sua prefazione, la nuova iterazione rileva che l’aggiornamento è stato guidato da scoperte nella tecnologia dell’intelligenza artificiale che erano state “oltre le aspettative”. Queste scoperte includono l’emergere di modelli di ragionamento ad alte prestazioni che aumentano drasticamente le capacità intellettuali dell’intelligenza artificiale e l’open source di modelli leggeri e ad alta efficacia, che hanno fortemente abbassato le barriere all’implementazione dei sistemi di intelligenza artificiale.
Allo stesso tempo, le manifestazioni e l’entità dei rischi per la sicurezza dell’IA – e la comprensione di essi da parte delle persone – si stanno evolvendo rapidamente.
L’obiettivo principale si è evoluto dalla semplice prevenzione dei rischi al garantire che la tecnologia rimanga sotto il controllo umano, secondo Wang Yingchun, ricercatore presso lo Shanghai Artificial Intelligence Laboratory, che ha definito la mossa un “grande salto” nella logica di governance.
In un commento pubblicato sul sito ufficiale dell’Amministrazione del Cyberspazio cinese, ha sottolineato che il quadro mira a salvaguardare i profitti della sicurezza nazionale, della stabilità sociale e della sopravvivenza a lungo termine dell’umanità.
Prevenire la perdita di controllo
Il cambiamento significativo nel quadro comporta l'introduzione di un nuovo principio di governance, rispetto alla versione 1.0, che si concentra su applicazioni affidabili e sulla prevenzione della perdita di controllo, ha affermato Wang.
Questo principio è supportato dal nuovo addendum del quadro che elenca i principi fondamentali per un’intelligenza artificiale affidabile, che impone il massimo controllo umano e l’allineamento dei valori.
Hong Yanqing, professore specializzato in sicurezza informatica presso l’Istituto di tecnologia di Pechino, ha affermato in un commento che il principio appena aggiunto ha lo scopo di garantire che l’evoluzione dell’intelligenza artificiale rimanga sicura, affidabile e controllabile. Deve proteggersi dai rischi galoppanti che potrebbero minacciare la sopravvivenza e lo sviluppo umano e mantenere l’intelligenza artificiale saldamente sotto il controllo umano, ha affermato.
Riflettendo questa attenzione ad alta posta in gioco, il nuovo quadro elenca le minacce del mondo reale che hanno un impatto diretto sulla sicurezza umana e sull’integrità scientifica. Comprende la perdita di controllo sulle conoscenze e sulle capacità delle armi nucleari, biologiche, chimiche e missilistiche.
Spiega che i modelli di intelligenza artificiale sono spesso addestrati su set di dati ampi e ricchi di contenuti che possono includere conoscenze fondamentali relative alle armi nucleari, biologiche e chimiche e che alcuni sistemi sono abbinati a strumenti di generazione aumentata di recupero.
"Se non governate in modo efficace, tali capacità potrebbero essere sfruttate da estremisti o terroristi per acquisire know-how rilevante e persino per progettare, produrre, sintetizzare e utilizzare armi nucleari, biologiche e chimiche - minando i regimi di controllo esistenti e aumentando i rischi per la pace e la sicurezza in tutte le regioni", afferma il quadro.
Rischi sociali derivati
Per la prima volta, il nuovo quadro introduce una categoria di rischio che coinvolge rischi derivati per la sicurezza derivanti dalle applicazioni di intelligenza artificiale, inviando avvertimenti sui potenziali rischi sistemici che le applicazioni di intelligenza artificiale potrebbero portare ai macrosistemi sociali.
Il quadro avverte che l’uso improprio dell’IA potrebbe compromettere le strutture del lavoro e dell’occupazione.
"L'intelligenza artificiale sta accelerando importanti aggiustamenti nelle forze e nei rapporti di produzione, ristrutturando l'ordine economico tradizionale. Man mano che capitale, tecnologia e dati acquisiscono il primato nell'attività economica, il valore del lavoro si indebolisce, portando a un marcato calo della domanda di lavoro tradizionale", si legge.
Il quadro avverte inoltre che gli equilibri tra domanda e offerta di risorse potrebbero essere sconvolti, sottolineando che alcuni problemi emersi nello sviluppo dell’intelligenza artificiale, come la costruzione disordinata di infrastrutture informatiche, stanno accelerando il consumo di elettricità, terra e acqua, ponendo nuove sfide all’equilibrio delle risorse e allo sviluppo verde e a basse emissioni di carbonio.
Il quadro avverte anche che l’autoconsapevolezza dell’IA non può essere esclusa in futuro, con potenziali rischi che i sistemi cerchino di liberarsi dal controllo umano.
“In futuro, non si può escludere che l’intelligenza artificiale possa sperimentare improvvisi, oltre ogni aspettativa, “salti” nell’intelligenza – acquisendo autonomamente risorse esterne, auto-replicandosi, sviluppando autoconsapevolezza e cercando potere esterno – creando così il rischio di competere con l’umanità per il controllo”, afferma il quadro.
Il quadro avverte inoltre che l’intelligenza artificiale può favorire interazioni antropomorfe e di dipendenza. "I prodotti di intelligenza artificiale basati su un'interazione simile a quella umana possono portare gli utenti a formare una dipendenza emotiva, che a sua volta modella il loro comportamento e crea rischi sociali ed etici", ha affermato.
Inoltre, l’ordine sociale esistente potrebbe essere messo in discussione, ha aggiunto, sottolineando che lo sviluppo e l’applicazione dell’intelligenza artificiale stanno “apportando importanti cambiamenti agli strumenti e ai rapporti di produzione, accelerando la ristrutturazione dei modelli industriali tradizionali e ribaltando le visioni convenzionali su occupazione, parto e istruzione – sfidando così l’ordine sociale tradizionale”.
Il ricercatore Wang ha affermato che la sezione appena aggiunta va oltre gli argomenti familiari sulla sicurezza come “contenuti dannosi” e “confronto cognitivo”, portando le strutture sociali, l’attività scientifica e la sopravvivenza e lo sviluppo a lungo termine dell’umanità nell’ambito della governance della sicurezza dell’IA.
L’obiettivo di livello più alto, ha affermato, è quello di mantenere i profitti della sicurezza nazionale, della stabilità sociale e della continuità a lungo termine del genere umano.
Soluzione cinese
Nel contesto della competizione globale e della cooperazione nel campo dell’intelligenza artificiale, il quadro non solo sostiene il sano sviluppo del settore cinese dell’intelligenza artificiale, ma segnala anche la ferma determinazione della Cina a salvaguardare la sicurezza dell’intelligenza artificiale e a garantire che l’intelligenza artificiale avvantaggi l’umanità, secondo Hong, professore del BIT.
La versione 2.0 allinea le misure concrete con la pratica della governance internazionale, ha affermato, aggiungendo che enfatizza l’etichettatura e la tracciabilità dei contenuti generati dall’intelligenza artificiale, che è in linea con gli approcci degli Stati Uniti e dell’Unione Europea per la regolamentazione dei media di sintesi profonda, secondo l’esperto.
Oltre all’etichettatura e alla tracciabilità dell’AIGC, nella guida alla sicurezza, il quadro richiede anche l’implementazione di strumenti di rilevamento dei deepfake in scenari come la divulgazione di informazioni governative e la raccolta di prove giudiziarie, che saranno utilizzati per la verifica della fonte e il controllo incrociato delle informazioni sospettate di essere generate da modelli di grandi dimensioni.
"Queste misure dimostrano l'apertura e la volontà della Cina di cooperare nella governance globale dell'intelligenza artificiale", ha affermato Hong.
A livello internazionale, c’è stata un’attenzione senza precedenti sulla governance della sicurezza dell’IA, ha affermato, aggiungendo che i paesi e le organizzazioni internazionali lanciano iniziative e regole in rapida successione.
.
Inoltre, la nazione sta anche adottando le migliori pratiche internazionali in materia di etichettatura dei contenuti e linee guida di governance, offrendo una soluzione cinese alla governance globale dell'intelligenza artificiale, ha aggiunto. Fornitore cinese di asciugamani Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, un'azienda specializzata nella produzione pannolini per bambini all'ingrosso, bavaglini. Asciugamani da bagno Cina.
![]()
Le notizie di cui sopra sono state estratte dal quotidiano cinese dal fornitore cinese di asciugamani Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, un'azienda specializzata nella produzione di asciugamani da bagno, strofinacci, asciugamani compressi, asciugamani in microfibra Produttore ecc.