La superintelligence des systèmes doit être surveillée et réglementée, à l’exemple de l’énergie atomique | Pèse sur start
/news

La superintelligence des systèmes doit être surveillée et réglementée, à l’exemple de l’énergie atomique

Image principale de l'article Comme l’atome, l’IA doit être surveillée
Photo Fotolia

Les dirigeants d'OpenAI, l'organisation à l'origine de ChatGPT, ont appelé à la réglementation des intelligences artificielles « superintelligentes », soulignant la nécessité d'empêcher la création accidentelle d'IA susceptibles de présenter un risque pour l'humanité. 

Ils proposent la création d'un organisme international de réglementation similaire à l'Agence internationale de l'énergie atomique afin de superviser et d'atténuer les dangers potentiels des IA dotées d'une grande puissance.

Réduire les risques existentiels des systèmes IA

Les dirigeants du Congrès américain ont exprimé leurs inquiétudes quant aux menaces posées par l'IA, telles que la diffusion de fausses informations et les violations de la vie privée. M. Altman a insisté sur la nécessité de faire connaître les risques associés à l'intelligence artificielle, car les conséquences pourraient être graves si la technologie ne fonctionnait pas correctement.

D’ici dix ans, une intelligence supérieure aux compétences des experts

Les dirigeants de l'OpenAI prévoient un avenir où les systèmes d'IA pourraient dépasser les niveaux de compétence des experts dans la plupart des domaines au cours de la prochaine décennie, en effectuant des activités équivalentes à celles des grandes entreprises.

Ils affirment que la superintelligence présente à la fois d'immenses avantages et risques, dépassant toute autre technologie de l'histoire. Ils soulignent la nécessité d'une gestion proactive des risques plutôt que d'une approche réactive en raison de la possibilité de menaces existentielles.

Photo d'archives, AFP

Huit risques catastrophiques et existentiels

Par exemple, l’organisation Center for AI Safety (CAIS) aux États-Unis identifie huit catégories de risques « catastrophiques » et « existentiels » associés au développement de l'IA. Ces risques vont au-delà de la crainte que l'IA ne détruise directement l'humanité et englobent des dommages plus subtils tels que la dépendance de la société à l'égard des machines et la concentration du pouvoir entre les mains de quelques individus, conduisant à un système de castes perpétuel. 

Objectif : un monde meilleur

Les dirigeants de l'OpenAI soutiennent que les décisions concernant les limites et les valeurs par défaut des systèmes d'IA devraient être déterminées démocratiquement par les citoyens du monde entier. Ils reconnaissent toutefois l'absence d'un mécanisme clair pour concevoir ces décisions. Malgré les risques encourus, ils estiment que la poursuite du développement de systèmes d'IA puissants conduira à un monde nettement meilleur.

Ils mettent en garde contre un arrêt du développement, car les avantages de l'IA sont considérables, le coût de sa construction diminue avec le temps et le nombre d'acteurs impliqués dans son développement augmente rapidement. Ils soulignent que l'arrêt du développement de l'IA nécessiterait des mesures extrêmes et pourrait même s'avérer inefficace.