Zürcher Nachrichten - ¿La Inteligencia Artificial podría acabar con la humanidad?

EUR -
AED 4.102105
AFN 75.943776
ALL 98.559302
AMD 432.564919
ANG 2.012493
AOA 1053.718626
ARS 1078.246379
AUD 1.615995
AWG 2.013058
AZN 1.903018
BAM 1.956263
BBD 2.254705
BDT 133.431563
BGN 1.95567
BHD 0.420474
BIF 3227.592984
BMD 1.116814
BND 1.432422
BOB 7.716309
BRL 6.068661
BSD 1.116649
BTN 93.443216
BWP 14.597564
BYN 3.654164
BYR 21889.557957
BZD 2.250874
CAD 1.510324
CDF 3199.673034
CHF 0.93949
CLF 0.036393
CLP 1004.183913
CNY 7.830771
CNH 7.796932
COP 4662.174305
CRC 579.581211
CUC 1.116814
CUP 29.595576
CVE 110.844247
CZK 25.143401
DJF 198.480656
DKK 7.45943
DOP 67.511856
DZD 147.632829
EGP 53.951777
ERN 16.752213
ETB 133.128577
FJD 2.438568
FKP 0.85052
GBP 0.835251
GEL 3.038171
GGP 0.85052
GHS 17.612595
GIP 0.85052
GMD 76.506072
GNF 9640.902719
GTQ 8.637546
GYD 233.589897
HKD 8.679836
HNL 27.775602
HRK 7.593232
HTG 147.162717
HUF 397.072547
IDR 16891.646973
ILS 4.169519
IMP 0.85052
INR 93.498064
IQD 1463.026578
IRR 47023.461504
ISK 150.960204
JEP 0.85052
JMD 175.431498
JOD 0.791491
JPY 158.829409
KES 144.069421
KGS 94.039997
KHR 4539.850039
KMF 493.213107
KPW 1005.13213
KRW 1463.356082
KWD 0.34064
KYD 0.930595
KZT 535.615475
LAK 24662.053383
LBP 100066.551049
LKR 333.41887
LRD 216.410712
LSL 19.192495
LTL 3.297662
LVL 0.67555
LYD 5.294124
MAD 10.82556
MDL 19.447167
MGA 5082.621727
MKD 61.575479
MMK 3627.368897
MNT 3794.934539
MOP 8.941976
MRU 44.354319
MUR 51.318034
MVR 17.154688
MWK 1938.789804
MXN 21.993751
MYR 4.606902
MZN 71.336549
NAD 19.192495
NGN 1863.393714
NIO 41.102919
NOK 11.725475
NPR 149.506067
NZD 1.76137
OMR 0.429471
PAB 1.116634
PEN 4.187052
PGK 4.437666
PHP 62.551688
PKR 310.143432
PLN 4.278011
PYG 8716.061777
QAR 4.066042
RON 4.979097
RSD 117.161668
RUB 105.231058
RWF 1487.59649
SAR 4.189354
SBD 9.261119
SCR 14.79953
SDG 671.767835
SEK 11.271168
SGD 1.429415
SHP 0.85052
SLE 25.516192
SLL 23419.029236
SOS 637.701275
SRD 34.286758
STD 23115.798718
SVC 9.770311
SYP 2806.029064
SZL 19.192494
THB 36.151687
TJS 11.881355
TMT 3.90885
TND 3.394561
TOP 2.615695
TRY 38.161322
TTD 7.585372
TWD 35.28057
TZS 3048.90309
UAH 45.967974
UGX 4125.289807
USD 1.116814
UYU 46.821075
UZS 14225.424679
VEF 4045718.043587
VES 41.120607
VND 27484.797006
VUV 132.590423
WST 3.124246
XAF 656.162155
XAG 0.035308
XAU 0.000421
XCD 3.018247
XDR 0.826043
XOF 657.249161
XPF 119.331742
YER 279.566552
ZAR 19.114316
ZMK 10052.671816
ZMW 29.530836
ZWL 359.613711
¿La Inteligencia Artificial podría acabar con la humanidad?
¿La Inteligencia Artificial podría acabar con la humanidad? / Foto: BEN STANSALL - AFP

¿La Inteligencia Artificial podría acabar con la humanidad?

Las alarmas han surgido por todas partes: la inteligencia artificial (IA) representa un riesgo existencial para la humanidad y debe ser controlada antes de que sea demasiado tarde.

Tamaño del texto:

Pero, ¿cuáles son estos escenarios apocalípticos y cómo se supone que las máquinas acabarán con la humanidad?

- Un buen problema -

La mayoría de los escenarios parten del mismo punto: un día las máquinas superarán las capacidades humanas, escaparán a todo control y se negarán a ser apagadas.

"Una vez que tengamos máquinas que tengan como objetivo la autopreservación, tendremos un buen problema", dijo el académico especialista en IA Yoshua Bengio durante una conferencia este mes.

Pero debido a que estas máquinas aún no existen, imaginar cómo podrían condenar a la humanidad es tarea a menudo de la filosofía y la ciencia ficción.

El filósofo sueco Nick Bostrom ha mencionado una "explosión de inteligencia", que ocurrirá cuando las máquinas superinteligentes comiencen a diseñar a su vez otras máquinas.

Las ideas de Bostrom han sido descartadas por muchos como ciencia ficción, sobre todo porque una vez argumentó que la humanidad es una simulación por computadora y apoyó teorías cercanas a la eugenesia.

También se disculpó recientemente después de que se descubriera un mensaje racista que envió en la década de 1990.

Sin embargo, sus pensamientos sobre la IA han tenido una gran influencia, inspirando tanto a Elon Musk como al profesor Stephen Hawking.

- Terminator -

Si las máquinas superinteligentes van a destruir a la humanidad, seguramente necesitarán una forma física.

El cyborg de ojos rojos interpretado por Arnold Schwarzenegger en "Terminator" ha demostrado ser una imagen impactante.

Pero los expertos han descartado la idea. "Es poco probable que este concepto de ciencia ficción se convierta en realidad en las próximas décadas, si es que alguna vez lo logra”, escribió un grupo activista en contra de los robots bélicos, Stop Killer Robots, en un informe de 2021.

Sin embargo, el grupo ha advertido que dar a las máquinas el poder de tomar decisiones sobre la vida o la muerte es un riesgo existencial.

La experta en robótica Kerstin Dautenhahn, de la Universidad de Waterloo en Canadá, restó importancia a esos temores.

Es poco probable, le dijo a AFP, que la IA le dé a las máquinas mayores capacidades de razonamiento o les insufle el deseo de matar a todos los humanos.

"Los robots no son malos", dijo, aunque admitió que los programadores pueden hacer que hagan cosas malas.

- Sustancias químicas más letales -

Un escenario menos fantasioso es el de unos "villanos" que utilizan la IA para crear nuevos virus y propagarlos.

Los potentes modelos de lenguaje como GPT-3, utilizado para crear ChatGPT, son extremadamente buenos para inventar nuevos agentes químicos horribles.

Un grupo de científicos que usaba IA para ayudar a descubrir nuevos medicamentos realizó un experimento en el que ajustaron su IA para que inventara moléculas dañinas.

Consiguieron generar 40.000 agentes potencialmente venenosos en menos de seis horas, según informa la revista Nature Machine Intelligence.

La experta en inteligencia artificial Joanna Bryson, de la Hertie School, en Berlín, explicó que es perfectamente factible que alguien descubra una forma de propagar un veneno como el ántrax más rápidamente.

"Pero no es una amenaza existencial. Es solo un arma horrible, espantosa".

- Especies adelantadas -

Las reglas de Hollywood dictan que los desastres de época deben ser repentinos, enormes y dramáticos, pero ¿y si el fin de la humanidad fuera lento, silencioso y no definitivo?

"Nuestra especie podría llegar a su fin sin tener un sucesor", dice el filósofo Huw Price en un video promocional para el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge.

Pero en su opinión hay "posibilidades menos sombrías" en las que los humanos mejorados con tecnología avanzada podrían sobrevivir.

Una imagen del apocalipsis a menudo se enmarca en términos evolutivos.

El conocido físico teórico Stephen Hawking argumentó en 2014 que, en última instancia, nuestra especie ya no podrá competir con las máquinas de inteligencia artificial y le dijo a la BBC que podría "significar el fin de la raza humana".

Geoffrey Hinton, que ha pasado su carrera construyendo máquinas que se asemejan al cerebro humano, habla en términos similares de "superinteligencias" que pura y simplemente superarán a los humanos.

Recientemente le dijo a la emisora estadounidense PBS que era posible que "la humanidad sea solo una fase pasajera en la evolución de la inteligencia".

W.Vogt--NZN