Zürcher Nachrichten - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.104397
AFN 76.945413
ALL 99.231189
AMD 432.617988
ANG 2.010719
AOA 1036.724537
ARS 1074.129077
AUD 1.641361
AWG 2.011389
AZN 1.904081
BAM 1.955429
BBD 2.252673
BDT 133.324726
BGN 1.955529
BHD 0.42042
BIF 3234.286875
BMD 1.117438
BND 1.441627
BOB 7.709539
BRL 6.055052
BSD 1.115688
BTN 93.249023
BWP 14.748204
BYN 3.651208
BYR 21901.788071
BZD 2.248874
CAD 1.517202
CDF 3208.165381
CHF 0.949812
CLF 0.037598
CLP 1037.433333
CNY 7.880067
CNH 7.870123
COP 4641.820049
CRC 578.89026
CUC 1.117438
CUP 29.612111
CVE 110.244101
CZK 25.088056
DJF 198.672338
DKK 7.466767
DOP 66.967305
DZD 147.657009
EGP 54.142736
ERN 16.761573
ETB 129.466357
FJD 2.459262
FKP 0.850995
GBP 0.83876
GEL 3.051043
GGP 0.850995
GHS 17.539675
GIP 0.850995
GMD 76.548818
GNF 9639.172699
GTQ 8.624365
GYD 233.395755
HKD 8.704949
HNL 27.675753
HRK 7.597474
HTG 147.212093
HUF 393.517458
IDR 16941.25656
ILS 4.221139
IMP 0.850995
INR 93.284241
IQD 1461.522939
IRR 47035.770303
ISK 152.262556
JEP 0.850995
JMD 175.286771
JOD 0.791709
JPY 160.803866
KES 143.922717
KGS 94.13132
KHR 4531.14103
KMF 493.181764
KPW 1005.693717
KRW 1488.975611
KWD 0.340897
KYD 0.929724
KZT 534.908597
LAK 24636.329683
LBP 99909.860054
LKR 340.395471
LRD 223.1377
LSL 19.586187
LTL 3.299505
LVL 0.675928
LYD 5.297996
MAD 10.818149
MDL 19.468309
MGA 5046.04342
MKD 61.603322
MMK 3629.395577
MNT 3797.054841
MOP 8.955702
MRU 44.337595
MUR 51.268486
MVR 17.164273
MWK 1934.433289
MXN 21.697078
MYR 4.698871
MZN 71.348848
NAD 19.586187
NGN 1831.984424
NIO 41.062216
NOK 11.713438
NPR 149.198716
NZD 1.791484
OMR 0.429669
PAB 1.115688
PEN 4.181807
PGK 4.367172
PHP 62.188829
PKR 309.994034
PLN 4.274593
PYG 8704.349913
QAR 4.067529
RON 4.972492
RSD 117.064808
RUB 103.380402
RWF 1504.014883
SAR 4.193134
SBD 9.282489
SCR 14.578236
SDG 672.143165
SEK 11.364797
SGD 1.442952
SHP 0.850995
SLE 25.530448
SLL 23432.113894
SOS 637.579134
SRD 33.752262
STD 23128.713955
SVC 9.762149
SYP 2807.596846
SZL 19.593286
THB 36.793929
TJS 11.859752
TMT 3.911034
TND 3.380559
TOP 2.617156
TRY 38.132438
TTD 7.588561
TWD 35.736832
TZS 3045.822602
UAH 46.114158
UGX 4133.216465
USD 1.117438
UYU 46.101261
UZS 14197.308611
VEF 4047978.463464
VES 41.096875
VND 27494.566096
VUV 132.664504
WST 3.125992
XAF 655.832674
XAG 0.035881
XAU 0.000426
XCD 3.019933
XDR 0.826843
XOF 655.832674
XPF 119.331742
YER 279.722751
ZAR 19.426272
ZMK 10058.288435
ZMW 29.537401
ZWL 359.814634
  • AEX

    -10.9000

    897.55

    -1.2%

  • BEL20

    -37.4300

    4215.59

    -0.88%

  • PX1

    -114.9900

    7500.26

    -1.51%

  • ISEQ

    -30.9900

    9967.18

    -0.31%

  • OSEBX

    -3.5300

    1407.43

    -0.25%

  • PSI20

    -4.0300

    6716.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.6900

    2580.84

    -0.22%

  • N150

    -51.9800

    3323.64

    -1.54%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

X.Blaser--NZN