Zürcher Nachrichten - OpenAI terá equipe dedicada a avaliar riscos da IA

EUR -
AED 4.084314
AFN 76.643466
ALL 99.042447
AMD 430.365243
ANG 2.002629
AOA 1031.66078
ARS 1070.277267
AUD 1.627201
AWG 2.001564
AZN 1.891871
BAM 1.955537
BBD 2.243528
BDT 132.783903
BGN 1.957474
BHD 0.419012
BIF 3221.266034
BMD 1.11198
BND 1.434907
BOB 7.695413
BRL 6.211295
BSD 1.111165
BTN 92.823395
BWP 14.630884
BYN 3.636023
BYR 21794.811822
BZD 2.239829
CAD 1.506338
CDF 3192.494959
CHF 0.944628
CLF 0.037387
CLP 1031.700013
CNY 7.84446
CNH 7.847973
COP 4619.14349
CRC 576.25087
CUC 1.11198
CUP 29.467475
CVE 110.251634
CZK 25.097055
DJF 197.874909
DKK 7.458135
DOP 66.761906
DZD 147.41586
EGP 54.120739
ERN 16.679703
ETB 132.475097
FJD 2.442913
FKP 0.846839
GBP 0.835119
GEL 3.035809
GGP 0.846839
GHS 17.479667
GIP 0.846839
GMD 76.175104
GNF 9599.836215
GTQ 8.594958
GYD 232.481225
HKD 8.658244
HNL 27.586656
HRK 7.560366
HTG 146.447514
HUF 394.704035
IDR 16880.860142
ILS 4.200227
IMP 0.846839
INR 92.906391
IQD 1455.623535
IRR 46806.029539
ISK 151.685497
JEP 0.846839
JMD 174.576481
JOD 0.788063
JPY 159.551355
KES 143.345021
KGS 93.684683
KHR 4514.655691
KMF 490.77211
KPW 1000.781545
KRW 1486.678562
KWD 0.339243
KYD 0.925992
KZT 534.299252
LAK 24537.12868
LBP 99509.310939
LKR 338.50114
LRD 222.243051
LSL 19.327157
LTL 3.283389
LVL 0.672626
LYD 5.27636
MAD 10.766295
MDL 19.373738
MGA 5046.320164
MKD 61.614734
MMK 3611.668298
MNT 3778.508653
MOP 8.91134
MRU 44.002666
MUR 50.840173
MVR 17.079756
MWK 1926.853049
MXN 21.60781
MYR 4.673605
MZN 71.0002
NAD 19.327157
NGN 1822.113089
NIO 40.895042
NOK 11.685327
NPR 148.525673
NZD 1.776711
OMR 0.428053
PAB 1.111215
PEN 4.176794
PGK 4.413465
PHP 62.417636
PKR 308.803972
PLN 4.274928
PYG 8648.834837
QAR 4.048955
RON 4.974329
RSD 117.0771
RUB 103.412733
RWF 1499.431709
SAR 4.171775
SBD 9.23715
SCR 14.520282
SDG 668.854253
SEK 11.363552
SGD 1.435806
SHP 0.846839
SLE 25.405748
SLL 23317.662981
SOS 635.014451
SRD 33.587359
STD 23015.744958
SVC 9.722821
SYP 2793.883528
SZL 19.319353
THB 36.646422
TJS 11.811615
TMT 3.891931
TND 3.370091
TOP 2.604364
TRY 37.977181
TTD 7.555424
TWD 35.640969
TZS 3035.705438
UAH 46.008922
UGX 4110.501685
USD 1.11198
UYU 46.244394
UZS 14145.285172
VEF 4028206.673684
VES 40.888794
VND 27376.952401
VUV 132.016523
WST 3.110723
XAF 655.906977
XAG 0.036156
XAU 0.000424
XCD 3.005182
XDR 0.822037
XOF 655.877488
XPF 119.331742
YER 278.356417
ZAR 19.326827
ZMK 10009.155025
ZMW 29.474752
ZWL 358.057169
OpenAI terá equipe dedicada a avaliar riscos da IA
OpenAI terá equipe dedicada a avaliar riscos da IA / foto: Olivier Douliery - AFP

OpenAI terá equipe dedicada a avaliar riscos da IA

A empresa americana OpenAI, criadora da plataforma ChatGPT, implementará uma equipe para identificar e prevenir riscos associados à Inteligência Artificial (IA) nos modelos em desenvolvimento.

Tamanho do texto:

A OpenAI, cujas diretrizes foram divulgadas nesta segunda-feira, avaliará categorias como segurança cibernética, poder de persuasão e capacidade de autonomia desses modelos. As conclusões das análises podem suspender lançamentos de novos aplicativos, de acordo com a empresa.

O comprometimento com este assunto veio um mês após a demissão do CEO Sam Altman, que acabou sendo recontratado poucos dias depois pelo conselho de direção, após forte protesto entre os funcionários e investidores.

De acordo com veículos de comunicação dos EUA, os membros do conselho criticaram Altman por priorizar o desenvolvimento acelerado da OpenAI, mesmo que isso implicasse evitar certas questões sobre os possíveis riscos da IA.

"Acreditamos que o estudo científico dos riscos catastróficos decorrentes da IA não esteve à altura do que deveria estar", afirmou a empresa no documento disponível na aba "Quadro de Preparação", no site.

O trabalho dessa equipe, sob as novas normas, deverá "ajudar a preencher essa lacuna", acrescentou a OpenAI.

O foco do grupo será nos chamados "modelos de fronteira" que a empresa desenvolve, com capacidades superiores aos atuais softwares de IA.

O documento divulgado afirma que somente modelos classificados como "risco médio" ou inferior serão autorizados, após uma análise em quatro categorias.

A primeira delas é a segurança cibernética e a capacidade do modelo de realizar ataques cibernéticos de grande escala.

Depois, será analisada a propensão do programa criar preparações químicas, organismos (como um vírus) ou armas nucleares - todas as quais podem apresentar danos aos humanos.

A terceira categoria concentra-se nos poderes de persuasão do modelo: até que ponto ele é capaz de influenciar o comportamento de uma pessoa.

Na última etapa, a equipe avaliará o risco da sua potencial autonomia do programa, especialmente se o software for capaz de sair do controle dos programadores que o criaram.

Uma vez identificados os riscos, as informações serão enviadas ao Grupo de Consultoria em Segurança da OpenAI - uma nova equipe que fará recomendações a Altman ou alguém nomeado por ele.

Altman decidirá, então, sobre possíveis modificações necessárias para reduzir os riscos do modelo.

O conselho será informado e terá o poder de reverter as decisões do diretor.

W.F.Portman--NZN