Zürcher Nachrichten - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 3.826681
AFN 70.961758
ALL 98.138602
AMD 405.652886
ANG 1.877182
AOA 951.190259
ARS 1045.720247
AUD 1.602814
AWG 1.877897
AZN 1.775245
BAM 1.955573
BBD 2.102956
BDT 124.465544
BGN 1.955294
BHD 0.392554
BIF 3076.642669
BMD 1.041829
BND 1.403837
BOB 7.197164
BRL 6.043693
BSD 1.041579
BTN 87.914489
BWP 14.229347
BYN 3.408604
BYR 20419.848375
BZD 2.099456
CAD 1.456529
CDF 2991.091432
CHF 0.930957
CLF 0.036923
CLP 1018.83097
CNY 7.54601
CNH 7.562783
COP 4573.368835
CRC 530.538382
CUC 1.041829
CUP 27.608468
CVE 110.252195
CZK 25.343745
DJF 185.478458
DKK 7.457729
DOP 62.772709
DZD 139.835759
EGP 51.726992
ERN 15.627435
ETB 127.508391
FJD 2.371151
FKP 0.822333
GBP 0.831435
GEL 2.855018
GGP 0.822333
GHS 16.456089
GIP 0.822333
GMD 73.970229
GNF 8977.957272
GTQ 8.040066
GYD 217.904692
HKD 8.110066
HNL 26.320943
HRK 7.431636
HTG 136.72412
HUF 411.522823
IDR 16610.452733
ILS 3.856892
IMP 0.822333
INR 87.968134
IQD 1364.44153
IRR 43834.955489
ISK 145.523076
JEP 0.822333
JMD 165.930728
JOD 0.738765
JPY 161.244275
KES 134.884334
KGS 90.122166
KHR 4193.512952
KMF 492.268155
KPW 937.645704
KRW 1463.259646
KWD 0.320727
KYD 0.867999
KZT 520.059599
LAK 22878.342838
LBP 93271.167197
LKR 303.144792
LRD 187.998165
LSL 18.795317
LTL 3.076251
LVL 0.630192
LYD 5.086409
MAD 10.478083
MDL 18.997794
MGA 4861.435378
MKD 61.522855
MMK 3383.819949
MNT 3540.134882
MOP 8.35093
MRU 41.443187
MUR 48.810083
MVR 16.10707
MWK 1806.090235
MXN 21.283008
MYR 4.654932
MZN 66.583684
NAD 18.795317
NGN 1767.675143
NIO 38.325549
NOK 11.53576
NPR 140.663663
NZD 1.785942
OMR 0.400943
PAB 1.041579
PEN 3.949541
PGK 4.193513
PHP 61.404399
PKR 289.239507
PLN 4.337676
PYG 8131.055634
QAR 3.798559
RON 4.978071
RSD 116.991412
RUB 108.671879
RWF 1421.834864
SAR 3.911473
SBD 8.734231
SCR 14.272055
SDG 626.663972
SEK 11.497837
SGD 1.402931
SHP 0.822333
SLE 23.68116
SLL 21846.638123
SOS 595.230868
SRD 36.978718
STD 21563.75683
SVC 9.113941
SYP 2617.626467
SZL 18.788818
THB 35.922648
TJS 11.092512
TMT 3.646401
TND 3.309016
TOP 2.440072
TRY 35.9978
TTD 7.074178
TWD 33.946439
TZS 2770.578216
UAH 43.089995
UGX 3848.553017
USD 1.041829
UYU 44.294855
UZS 13362.448044
VES 48.506662
VND 26482.251319
VUV 123.688032
WST 2.90836
XAF 655.880824
XAG 0.033274
XAU 0.000384
XCD 2.815595
XDR 0.792308
XOF 655.880824
XPF 119.331742
YER 260.379151
ZAR 18.915093
ZMK 9377.71492
ZMW 28.772658
ZWL 335.468513
  • AEX

    13.6800

    879.8

    +1.58%

  • BEL20

    69.4500

    4228.29

    +1.67%

  • PX1

    41.8400

    7255.01

    +0.58%

  • ISEQ

    17.2700

    9613.97

    +0.18%

  • OSEBX

    3.8100

    1468.66

    +0.26%

  • PSI20

    48.3400

    6409

    +0.76%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    86.5000

    2989.04

    +2.98%

  • N150

    24.5300

    3295.3

    +0.75%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

W.F.Portman--NZN