Dans une démarche reflétant les avancées rapides dans le domaine de l’intelligence artificielle, la Chine a publié le 15 septembre son cadre de gouvernance de la sécurité de l’IA 2.0 amélioré.
Le dernier cadre signale une évolution stratégique significative par rapport à son prédécesseur, passant d'une liste statique de risques à une méthodologie de gouvernance du cycle de vie complet.
Cela survient tout juste un an après la publication du premier cadre par le Comité technique national 260 sur la cybersécurité, l'organisme clé chinois responsable de la normalisation de la cybersécurité.
Dans sa préface, la nouvelle itération note que la mise à jour a été motivée par des percées dans la technologie de l'IA qui ont été « au-delà des attentes ». Ces avancées incluent l'émergence de modèles de raisonnement hautes performances qui augmentent considérablement les capacités intellectuelles de l'IA, et l'open source de modèles légers et à haute efficacité, qui ont considérablement réduit les obstacles au déploiement de systèmes d'IA.
Dans le même temps, les manifestations et l’ampleur des risques de sécurité liés à l’IA – ainsi que la manière dont les gens les comprennent – évoluent rapidement.
L'objectif principal est passé de la simple prévention des risques à la garantie que la technologie reste sous contrôle humain, selon Wang Yingchun, chercheur au Laboratoire d'intelligence artificielle de Shanghai, qui a qualifié cette décision de « avancée majeure » dans la logique de gouvernance.
Dans un commentaire publié sur le site officiel de l'Administration du cyberespace de Chine, il a souligné que le cadre vise à préserver la sécurité nationale, la stabilité sociale et la survie à long terme de l'humanité.
Prévenir la perte de contrôle
Ce changement important dans le cadre implique l'introduction d'un nouveau principe de gouvernance, par rapport à la version 1.0, qui se concentre sur les applications fiables et la prévention de la perte de contrôle, a indiqué M. Wang.
Ce principe est soutenu par le nouvel addendum du cadre répertoriant les principes fondamentaux d'une IA digne de confiance, qui exige un contrôle humain ultime et un alignement des valeurs.
Hong Yanqing, professeur spécialisé en cybersécurité à l'Institut de technologie de Pékin, a déclaré dans un commentaire que le principe nouvellement ajouté vise à garantir que l'évolution de l'IA reste sûre, fiable et contrôlable. Elle doit se prémunir contre les risques incontrôlables qui pourraient menacer la survie et le développement de l’humanité, et maintenir l’IA fermement sous contrôle humain, a-t-il déclaré.
Reflétant ces enjeux élevés, le nouveau cadre répertorie les menaces du monde réel qui ont un impact direct sur la sécurité humaine et l’intégrité scientifique. Cela inclut la perte de contrôle sur les connaissances et les capacités en matière d’armes nucléaires, biologiques, chimiques et de missiles.
Il explique que les modèles d’IA sont souvent formés sur de vastes ensembles de données riches en contenu pouvant inclure des connaissances fondamentales liées aux armes nucléaires, biologiques et chimiques, et que certains systèmes sont associés à des outils de génération augmentés par récupération.
"Si elles ne sont pas efficacement gouvernées, ces capacités pourraient être exploitées par des extrémistes ou des terroristes pour acquérir un savoir-faire pertinent et même pour concevoir, fabriquer, synthétiser et utiliser des armes nucléaires, biologiques et chimiques, sapant ainsi les régimes de contrôle existants et augmentant les risques pour la paix et la sécurité dans toutes les régions", indique le cadre.
Risques sociétaux dérivés
Pour la première fois, le nouveau cadre introduit une catégorie de risque impliquant des risques de sécurité dérivés des applications d’IA, envoyant des avertissements sur les risques systémiques potentiels que les applications d’IA pourraient apporter aux systèmes macro-sociaux.
Le cadre prévient que l’utilisation abusive de l’IA pourrait perturber les structures du travail et de l’emploi.
"L'IA accélère les ajustements majeurs des forces et des relations de production, restructurant l'ordre économique traditionnel. À mesure que le capital, la technologie et les données gagnent en primauté dans l'activité économique, la valeur du travail s'affaiblit, entraînant une baisse marquée de la demande de travail traditionnel", a-t-il déclaré.
Le cadre met également en garde contre le risque de bouleversement des équilibres entre l’offre et la demande de ressources, soulignant que certains problèmes apparus dans le développement de l’IA, comme la construction désordonnée d’infrastructures informatiques, accélèrent la consommation d’électricité, de terres et d’eau, posant de nouveaux défis à l’équilibre des ressources et au développement vert et à faible émission de carbone.
Le cadre prévient même que la conscience de soi de l’IA ne peut être exclue à l’avenir, avec des risques potentiels de systèmes cherchant à s’affranchir du contrôle humain.
"À l'avenir, il ne peut être exclu que l'IA puisse connaître des "sauts" soudains et inattendus en matière d'intelligence - acquérant de manière autonome des ressources externes, s'auto-reproduisant, développant la conscience de soi et recherchant un pouvoir externe - créant ainsi des risques de rivalité avec l'humanité pour le contrôle", indique le cadre.
Le cadre prévient également que l’IA peut favoriser des interactions anthropomorphiques addictives. "Les produits d'IA construits sur une interaction de type humain peuvent conduire les utilisateurs à développer une dépendance émotionnelle, qui à son tour façonne leur comportement et crée des risques sociaux et éthiques", indique le rapport.
En outre, l'ordre social existant pourrait être remis en question, ajoute le rapport, notant que le développement et les applications de l'IA « apportent des changements majeurs aux outils et aux relations de production, accélérant la restructuration des modèles industriels traditionnels et bouleversant les visions conventionnelles de l'emploi, de la natalité et de l'éducation, remettant ainsi en question l'ordre social traditionnel ».
Le chercheur Wang a déclaré que la section nouvellement ajoutée va au-delà des sujets de sécurité familiers tels que le « contenu préjudiciable » et la « confrontation cognitive », intégrant les structures sociales, l'activité scientifique et la survie et le développement à long terme de l'humanité dans le cadre de la gouvernance de la sécurité de l'IA.
L'objectif principal, a-t-il dit, est de garantir la sécurité nationale, la stabilité sociale et la continuité à long terme de l'humanité.
Solution chinoise
Dans un contexte de concurrence et de coopération mondiales dans le domaine de l'IA, le cadre soutient non seulement le développement sain du secteur chinois de l'IA, mais signale également la ferme détermination de la Chine à sauvegarder la sécurité de l'IA et à garantir que l'IA profite à l'humanité, selon Hong, professeur au BIT.
La version 2.0 aligne les mesures concrètes sur les pratiques de gouvernance internationale, a-t-il déclaré, ajoutant qu'elle met l'accent sur l'étiquetage et la traçabilité des contenus générés par l'IA, ce qui est conforme aux approches des États-Unis et de l'Union européenne en matière de réglementation des médias de synthèse profonde, selon l'expert.
Au-delà de l'étiquetage et de la traçabilité de l'AIGC, dans les directives de sécurité, le cadre appelle également au déploiement d'outils de détection des deepfakes dans des scénarios tels que la divulgation d'informations gouvernementales et la collecte de preuves judiciaires, qui seront utilisés pour la vérification à la source et le recoupement des informations soupçonnées d'être générées par de grands modèles.
"Ces mesures démontrent l'ouverture et la volonté de la Chine de coopérer à la gouvernance mondiale de l'IA", a déclaré Hong.
À l’échelle internationale, la gouvernance de la sécurité de l’IA fait l’objet d’une attention sans précédent, a-t-il déclaré, ajoutant que les pays et les organisations internationales déploient des initiatives et des règles en succession rapide.
.
En outre, la nation s'aligne également sur les meilleures pratiques internationales en matière d'étiquetage de contenu et de directives de gouvernance, offrant ainsi une solution chinoise à la gouvernance mondiale de l'IA, a-t-il ajouté. Le fournisseur chinois de serviettes Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, une société spécialisée dans la production de serviettes. couches pour bébés en gros, bavoirs bébé.Serviettes de bain Chine.
![]()
Les nouvelles ci-dessus ont été extraites quotidiennement de Chine par le fournisseur chinois de serviettes Shenzhen City Dingrun Light Textile Import and Export Corp.Ltd, une société spécialisée dans la production de serviettes de bain, de torchons, de serviettes compressées, serviettes en microfibre Fabricant etc