Zürcher Nachrichten - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.093506
AFN 76.885697
ALL 99.156844
AMD 431.61136
ANG 2.009212
AOA 1033.996627
ARS 1072.997336
AUD 1.641238
AWG 2.006096
AZN 1.894898
BAM 1.953947
BBD 2.250965
BDT 133.223643
BGN 1.952711
BHD 0.420041
BIF 3231.776803
BMD 1.114498
BND 1.440534
BOB 7.703555
BRL 6.123719
BSD 1.114843
BTN 93.176654
BWP 14.737155
BYN 3.64844
BYR 21844.159752
BZD 2.247128
CAD 1.513226
CDF 3199.72349
CHF 0.948009
CLF 0.037589
CLP 1037.207355
CNY 7.861562
CNH 7.857762
COP 4641.270973
CRC 578.440993
CUC 1.114498
CUP 29.534196
CVE 110.159036
CZK 25.061677
DJF 198.518152
DKK 7.458688
DOP 66.916533
DZD 147.443868
EGP 54.087145
ERN 16.717469
ETB 129.365881
FJD 2.455963
FKP 0.848756
GBP 0.838887
GEL 3.04302
GGP 0.848756
GHS 17.526063
GIP 0.848756
GMD 76.360453
GNF 9631.735079
GTQ 8.617904
GYD 233.214621
HKD 8.68467
HNL 27.654771
HRK 7.577484
HTG 147.097844
HUF 393.219452
IDR 16938.139791
ILS 4.215003
IMP 0.848756
INR 93.066206
IQD 1460.414859
IRR 46912.005489
ISK 152.106934
JEP 0.848756
JMD 175.153874
JOD 0.78973
JPY 160.913487
KES 143.815085
KGS 93.883634
KHR 4527.705666
KMF 491.883517
KPW 1003.04752
KRW 1489.253392
KWD 0.340031
KYD 0.929027
KZT 534.493464
LAK 24617.20987
LBP 99832.321807
LKR 340.137394
LRD 222.964527
LSL 19.571513
LTL 3.290823
LVL 0.674149
LYD 5.294169
MAD 10.810335
MDL 19.453724
MGA 5042.127276
MKD 61.543927
MMK 3619.845856
MNT 3787.063972
MOP 8.948752
MRU 44.304377
MUR 51.133282
MVR 17.119128
MWK 1932.93201
MXN 21.562748
MYR 4.686458
MZN 71.160467
NAD 19.571337
NGN 1827.163772
NIO 41.030532
NOK 11.743114
NPR 149.085599
NZD 1.79238
OMR 0.429047
PAB 1.114823
PEN 4.178581
PGK 4.364018
PHP 62.09258
PKR 309.759007
PLN 4.271826
PYG 8697.750557
QAR 4.064445
RON 4.974451
RSD 117.076905
RUB 103.223004
RWF 1502.88806
SAR 4.182122
SBD 9.258064
SCR 14.81171
SDG 670.372494
SEK 11.382251
SGD 1.441191
SHP 0.848756
SLE 25.463272
SLL 23370.458959
SOS 637.101453
SRD 33.663463
STD 23067.857331
SVC 9.754617
SYP 2800.209454
SZL 19.578606
THB 36.808558
TJS 11.850548
TMT 3.900743
TND 3.377996
TOP 2.610264
TRY 38.023817
TTD 7.582672
TWD 35.665604
TZS 3038.346537
UAH 46.080848
UGX 4130.23089
USD 1.114498
UYU 46.065689
UZS 14186.544671
VEF 4037327.360851
VES 40.96537
VND 27422.221975
VUV 132.315435
WST 3.117767
XAF 655.323694
XAG 0.035728
XAU 0.000426
XCD 3.011987
XDR 0.826216
XOF 655.326631
XPF 119.331742
YER 278.9867
ZAR 19.526231
ZMK 10031.815557
ZMW 29.514477
ZWL 358.867884
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

Ch.Siegenthaler--NZN