Zürcher Nachrichten - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

EUR -
AED 4.104397
AFN 76.945413
ALL 99.231189
AMD 432.617988
ANG 2.010719
AOA 1036.724537
ARS 1074.259252
AUD 1.641361
AWG 2.011389
AZN 1.904081
BAM 1.955429
BBD 2.252673
BDT 133.324726
BGN 1.95472
BHD 0.42042
BIF 3234.286875
BMD 1.117438
BND 1.441627
BOB 7.709539
BRL 6.162788
BSD 1.115688
BTN 93.249023
BWP 14.748204
BYN 3.651208
BYR 21901.788071
BZD 2.248874
CAD 1.517202
CDF 3208.165381
CHF 0.950204
CLF 0.037689
CLP 1039.944272
CNY 7.880067
CNH 7.870123
COP 4641.820049
CRC 578.89026
CUC 1.117438
CUP 29.612111
CVE 110.244101
CZK 25.088056
DJF 198.672338
DKK 7.466767
DOP 66.967305
DZD 147.657009
EGP 54.142736
ERN 16.761573
ETB 129.466357
FJD 2.459262
FKP 0.850995
GBP 0.839107
GEL 3.051043
GGP 0.850995
GHS 17.539675
GIP 0.850995
GMD 76.548818
GNF 9639.172699
GTQ 8.624365
GYD 233.395755
HKD 8.704949
HNL 27.675753
HRK 7.597474
HTG 147.212093
HUF 393.517458
IDR 16941.25656
ILS 4.221139
IMP 0.850995
INR 93.284241
IQD 1461.522939
IRR 47035.770303
ISK 152.262556
JEP 0.850995
JMD 175.286771
JOD 0.791709
JPY 160.803866
KES 143.922717
KGS 94.13132
KHR 4531.14103
KMF 493.181764
KPW 1005.693717
KRW 1488.975611
KWD 0.340897
KYD 0.929724
KZT 534.908597
LAK 24636.329683
LBP 99909.860054
LKR 340.395471
LRD 223.1377
LSL 19.586187
LTL 3.299505
LVL 0.675928
LYD 5.297996
MAD 10.818149
MDL 19.468309
MGA 5046.04342
MKD 61.603322
MMK 3629.395577
MNT 3797.054841
MOP 8.955702
MRU 44.337595
MUR 51.268486
MVR 17.164273
MWK 1934.433289
MXN 21.697078
MYR 4.698871
MZN 71.348848
NAD 19.586187
NGN 1831.984424
NIO 41.062216
NOK 11.713438
NPR 149.198716
NZD 1.791484
OMR 0.429669
PAB 1.115688
PEN 4.181807
PGK 4.367172
PHP 62.188829
PKR 309.994034
PLN 4.274593
PYG 8704.349913
QAR 4.067529
RON 4.972492
RSD 117.203662
RUB 103.07316
RWF 1504.014883
SAR 4.193134
SBD 9.282489
SCR 14.578236
SDG 672.143165
SEK 11.364797
SGD 1.442952
SHP 0.850995
SLE 25.530448
SLL 23432.113894
SOS 637.579134
SRD 33.752262
STD 23128.713955
SVC 9.762149
SYP 2807.596846
SZL 19.593286
THB 36.793929
TJS 11.859752
TMT 3.911034
TND 3.380559
TOP 2.617156
TRY 38.132438
TTD 7.588561
TWD 35.736832
TZS 3045.822602
UAH 46.114158
UGX 4133.216465
USD 1.117438
UYU 46.101261
UZS 14197.308611
VEF 4047978.463464
VES 41.096875
VND 27494.566096
VUV 132.664504
WST 3.125992
XAF 655.832674
XAG 0.035881
XAU 0.000426
XCD 3.019933
XDR 0.826843
XOF 655.832674
XPF 119.331742
YER 279.722751
ZAR 19.426272
ZMK 10058.288435
ZMW 29.537401
ZWL 359.814634
  • AEX

    -10.9000

    897.55

    -1.2%

  • BEL20

    -37.4300

    4215.59

    -0.88%

  • PX1

    -114.9900

    7500.26

    -1.51%

  • ISEQ

    -30.9900

    9967.18

    -0.31%

  • OSEBX

    -3.5300

    1407.43

    -0.25%

  • PSI20

    -4.0300

    6716.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.6900

    2580.84

    -0.22%

  • N150

    -51.9800

    3323.64

    -1.54%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: ANTHONY WALLACE - AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

W.Odermatt--NZN