Zürcher Nachrichten - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

EUR -
AED 4.104397
AFN 76.945413
ALL 99.231189
AMD 432.617988
ANG 2.010719
AOA 1036.724537
ARS 1074.259252
AUD 1.641361
AWG 2.011389
AZN 1.904081
BAM 1.955429
BBD 2.252673
BDT 133.324726
BGN 1.955529
BHD 0.42042
BIF 3234.286875
BMD 1.117438
BND 1.441627
BOB 7.709539
BRL 6.055052
BSD 1.115688
BTN 93.249023
BWP 14.748204
BYN 3.651208
BYR 21901.788071
BZD 2.248874
CAD 1.517202
CDF 3208.165381
CHF 0.950204
CLF 0.037689
CLP 1039.944272
CNY 7.880067
CNH 7.870123
COP 4641.820049
CRC 578.89026
CUC 1.117438
CUP 29.612111
CVE 110.244101
CZK 25.088056
DJF 198.672338
DKK 7.466767
DOP 66.967305
DZD 147.657009
EGP 54.142736
ERN 16.761573
ETB 129.466357
FJD 2.459262
FKP 0.850995
GBP 0.839107
GEL 3.051043
GGP 0.850995
GHS 17.539675
GIP 0.850995
GMD 76.548818
GNF 9639.172699
GTQ 8.624365
GYD 233.395755
HKD 8.704949
HNL 27.675753
HRK 7.597474
HTG 147.212093
HUF 393.517458
IDR 16941.25656
ILS 4.221139
IMP 0.850995
INR 93.284241
IQD 1461.522939
IRR 47035.770303
ISK 152.262556
JEP 0.850995
JMD 175.286771
JOD 0.791709
JPY 160.803866
KES 143.922717
KGS 94.13132
KHR 4531.14103
KMF 493.181764
KPW 1005.693717
KRW 1488.975611
KWD 0.340897
KYD 0.929724
KZT 534.908597
LAK 24636.329683
LBP 99909.860054
LKR 340.395471
LRD 223.1377
LSL 19.586187
LTL 3.299505
LVL 0.675928
LYD 5.297996
MAD 10.818149
MDL 19.468309
MGA 5046.04342
MKD 61.603322
MMK 3629.395577
MNT 3797.054841
MOP 8.955702
MRU 44.337595
MUR 51.268486
MVR 17.164273
MWK 1934.433289
MXN 21.697078
MYR 4.698871
MZN 71.348848
NAD 19.586187
NGN 1831.984424
NIO 41.062216
NOK 11.713438
NPR 149.198716
NZD 1.791484
OMR 0.429669
PAB 1.115688
PEN 4.181807
PGK 4.367172
PHP 62.188829
PKR 309.994034
PLN 4.274593
PYG 8704.349913
QAR 4.067529
RON 4.972492
RSD 117.203662
RUB 103.07316
RWF 1504.014883
SAR 4.193134
SBD 9.282489
SCR 14.578236
SDG 672.143165
SEK 11.364797
SGD 1.442952
SHP 0.850995
SLE 25.530448
SLL 23432.113894
SOS 637.579134
SRD 33.752262
STD 23128.713955
SVC 9.762149
SYP 2807.596846
SZL 19.593286
THB 36.793929
TJS 11.859752
TMT 3.911034
TND 3.380559
TOP 2.617156
TRY 38.132438
TTD 7.588561
TWD 35.736832
TZS 3045.822602
UAH 46.114158
UGX 4133.216465
USD 1.117438
UYU 46.101261
UZS 14197.308611
VEF 4047978.463464
VES 41.096875
VND 27494.566096
VUV 132.664504
WST 3.125992
XAF 655.832674
XAG 0.035881
XAU 0.000426
XCD 3.019933
XDR 0.826843
XOF 655.832674
XPF 119.331742
YER 279.722751
ZAR 19.426272
ZMK 10058.288435
ZMW 29.537401
ZWL 359.814634
  • AEX

    -10.9000

    897.55

    -1.2%

  • BEL20

    -37.4300

    4215.59

    -0.88%

  • PX1

    -114.9900

    7500.26

    -1.51%

  • ISEQ

    -30.9900

    9967.18

    -0.31%

  • OSEBX

    -3.5300

    1407.43

    -0.25%

  • PSI20

    -4.0300

    6716.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.6900

    2580.84

    -0.22%

  • N150

    -51.9800

    3323.64

    -1.54%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

R.Schmid--NZN