Mis à jour le 1 janvier 2025

L’éthique et la gou­ver­nance de l’in­tel­li­gence ar­ti­fi­cielle : un en­jeu mon­dial

Le Nida, à Issy-les-Mou­li­neaux, ac­cueillait le 15 no­vembre der­nier une confé­rence or­ga­ni­sée par l’as­so­cia­tion Glo­bal AI sur l’éthique et la gou­ver­nance de l’in­tel­li­gence ar­ti­fi­cielle.

La confé­rence a sou­li­gné l’im­por­tance de l’éthique et de la gou­ver­nance dans le dé­ve­lop­pe­ment de l’in­tel­li­gence ar­ti­fi­cielle, en in­sis­tant sur la né­ces­sité de ré­gu­la­tions claires et de co­opé­ra­tion in­ter­na­tio­nale pour évi­ter les dé­rives et maxi­mi­ser les bé­né­fices de l’IA.

L’in­tel­li­gence ar­ti­fi­cielle (IA) est sou­vent pré­sen­tée comme une tech­no­lo­gie ré­vo­lu­tion­naire, ca­pable de trans­for­mer nos so­cié­tés. Tou­te­fois, sa mon­tée en puis­sance sou­lève des en­jeux éthiques, en­vi­ron­ne­men­taux et de gou­ver­nance, comme l’a sou­li­gné la confé­rence, or­ga­ni­sée par l’as­so­cia­tion Glo­bal AI. L’as­so­cia­tion suisse vise à pro­mou­voir l’éthique des tech­no­lo­gies liées à l’IA et à don­ner une voix aux ac­teurs qui n’en ont pas au­près des ins­ti­tu­tions. Elle cherche à sen­si­bi­li­ser la so­ciété aux pos­si­bi­li­tés et aux pré­oc­cu­pa­tions liées à l’IA, et à ex­plo­rer la pos­si­bi­lité d’une gou­ver­nance mon­diale pour les ap­pli­ca­tions de l’IA.

Cet évé­ne­ment a mis en lu­mière les dé­fis et op­por­tu­ni­tés liés au dé­ve­lop­pe­ment de l’IA, tout en in­sis­tant sur l’im­por­tance de ré­gu­la­tions in­ter­na­tio­nales et de pra­tiques éthiques.

L’IA : un bien commun universel

L’un des mes­sages clés de cette confé­rence, porté par Da­niela Le­ve­ratto, pré­si­dente de Glo­bal AI, est que l’in­tel­li­gence ar­ti­fi­cielle doit être consi­dé­rée comme un bien com­mun, ac­ces­sible à tous, in­dé­pen­dam­ment des bar­rières lin­guis­tiques, cultu­relles ou géo­gra­phiques. Cette ap­proche uni­ver­selle vise à ga­ran­tir une uti­li­sa­tion équi­table et res­pon­sable de l’IA, tout en pre­nant en compte ses im­pacts so­ciaux et en­vi­ron­ne­men­taux.

Em­ma­nuel Goffi, phi­lo­sophe spé­cia­lisé en éthique de l’IA et en­sei­gnant à l’ISEP, a in­sisté sur la né­ces­sité de dé­mys­ti­fier cette tech­no­lo­gie, tout en res­tant vi­gi­lant face à ses dan­gers. Il a éga­le­ment évo­qué le rôle cru­cial du lan­gage et du nar­ra­tif dans l’éthique, en ap­pe­lant à un re­gard cri­tique sur les dis­cours do­mi­nants qui en­tourent l’IA.

Une gouvernance mondiale fragmentée

Le dé­ve­lop­pe­ment de l’in­tel­li­gence ar­ti­fi­cielle est mar­qué par des en­jeux géo­po­li­tiques et éco­no­miques ma­jeurs. Avec des re­ve­nus pro­je­tés à 500 mil­liards de dol­lars dès 2024, la course à l’IA est do­mi­née par les États-Unis et la Chine, lais­sant des ac­teurs comme l’Union eu­ro­péenne et la France en re­trait. Ce­pen­dant, ces der­niers misent sur une ap­proche dif­fé­ren­ciée, ba­sée sur la ré­gu­la­tion et les normes. Le RGPD et l’AI Act en sont des exemples, of­frant un cadre lé­gis­la­tif qui im­pose des contraintes éthiques aux ac­teurs in­ter­na­tio­naux.

Mal­gré ces ef­forts, la gou­ver­nance glo­bale de l’IA reste dif­fi­cile à éta­blir. 75 % des normes d’IA sont pro­duites par le monde oc­ci­den­tal, bien que ce der­nier ne re­pré­sente qu’en­vi­ron 15 % de la po­pu­la­tion mon­diale. Cela sus­cite des ten­sions cultu­relles et éthiques, no­tam­ment dans des pays comme l’Inde ou l’Ara­bie Saou­dite, qui cri­tiquent l’im­po­si­tion de va­leurs oc­ci­den­tales.

Un pa­nel d’ex­perts in­vi­tés par l’as­so­cia­tion Glo­bal AI a réuni Mi­chel-Ma­rie Mau­det, di­rec­teur gé­né­ral de Li­na­gora, Del­phine Do­got, maître des confé­rences en droit à l’Uni­ver­sité ca­tho­lique de Lille, di­rec­trice du stu­dio Droit/​Di­gi­tal, Sté­phano Piano, Al­truis­tic (Ex-OECD) et Ber­trand CAS­SAR,  doc­teur en droit et res­pon­sable «Gou­ver­nance des don­nées» au sein du groupe La Poste

Les défis environnementaux et sociétaux

Un autre point cen­tral de la confé­rence a été l’im­pact en­vi­ron­ne­men­tal de l’in­tel­li­gence ar­ti­fi­cielle. Les centres de don­nées né­ces­saires pour en­traî­ner les grands mo­dèles d’IA, comme ceux de type ChatGPT, consomment d’énormes quan­ti­tés d’éner­gie. Se­lon les in­ter­ve­nants, cet im­pact est sou­vent sous-es­timé et né­ces­site une ré­gu­la­tion stricte pour évi­ter une em­preinte car­bone in­con­trô­lée.

En outre, l’IA peut ac­cen­tuer les in­éga­li­tés so­ciales et géo­po­li­tiques. Les don­nées uti­li­sées pour en­traî­ner les mo­dèles sont ma­jo­ri­tai­re­ment is­sues de cultures oc­ci­den­tales, créant des biais lin­guis­tiques et cultu­rels. Des pro­jets comme LU­CIE, un mo­dèle open source dé­ve­loppé par la so­ciété LI­NA­GORA, im­plan­tée à Issy-les-Mou­li­neaux, vi­sant à di­ver­si­fier les don­nées d’en­traî­ne­ment, tentent de cor­ri­ger ces dis­pa­ri­tés.

Former pour mieux gouverner

La for­ma­tion et l’édu­ca­tion à l’in­tel­li­gence ar­ti­fi­cielle sont ap­pa­rues comme des prio­ri­tés ab­so­lues. Mi­chel-Ma­rie Mau­det, di­rec­teur gé­né­ral de Li­na­gora, a rap­pelé l’im­por­tance de sen­si­bi­li­ser les ci­toyens et les pro­fes­sion­nels à un usage rai­sonné de l’IA. La France, avec ses in­gé­nieurs et aca­dé­miques de haut ni­veau, a un rôle clé à jouer dans cette trans­for­ma­tion.

La confé­rence de Glo­bal AI a éga­le­ment sou­li­gné la né­ces­sité d’un en­sei­gne­ment in­ter­dis­ci­pli­naire, mê­lant sa­voirs tech­niques et ju­ri­diques, pour pré­pa­rer les ci­toyens aux dé­fis fu­turs. Les ou­tils comme ChatGPT, lors­qu’ils sont bien en­ca­drés, peuvent de­ve­nir des ins­tru­ments pé­da­go­giques puis­sants, à condi­tion de ne pas se lais­ser sub­mer­ger par les pro­messes mar­ke­ting de la Si­li­con Val­ley.

Vers un futur maîtrisé

Pour conclure, les ex­perts ont una­ni­me­ment in­sisté sur l’ur­gence de ré­gu­ler l’in­tel­li­gence ar­ti­fi­cielle afin d’évi­ter les dé­rives. Qu’il s’agisse de dés­in­for­ma­tion, de mi­li­ta­ri­sa­tion ou d’im­pacts en­vi­ron­ne­men­taux, les risques sont réels. Une gou­ver­nance mon­diale, in­clu­sive et agile, ap­pa­raît comme une so­lu­tion in­dis­pen­sable pour maxi­mi­ser les bé­né­fices de l’IA tout en li­mi­tant ses dan­gers.

Comme l’a rap­pelé un in­ter­ve­nant : « Il ne faut pas ré­ité­rer les er­reurs com­mises lors du dé­but d’In­ter­net. » En d’autres termes, la course à l’in­no­va­tion ne doit pas se faire au dé­tri­ment de prin­cipes éthiques fon­da­men­taux.

Avec des ini­tia­tives telles que l’AI Act et des pro­jets open source comme LU­CIE, l’Eu­rope peut jouer un rôle cen­tral dans cette tran­si­tion. Mais la clé ré­side dans la co­opé­ra­tion in­ter­na­tio­nale : seul un ef­fort col­lec­tif per­met­tra de construire une in­tel­li­gence ar­ti­fi­cielle qui serve vé­ri­ta­ble­ment l’hu­ma­nité.

Quelques chiffres-clés de l’IA

- Revenus estimés de l’IA mondiale : 500 milliards de dollars en 2024.
- Pays participant à la course à l’IA : 83, avec les États-Unis et la Chine en tête.
- Taux d’utilisation de l’IA par les PME en Europe : seulement 3 %.
- Part des normes d’IA produites par l’Occident : 75 %.

Notes prises lors de la conférence