Zürcher Nachrichten - La IA enfrenta el desafío de aprender a olvidar los errores asimilados

EUR -
AED 4.111191
AFN 76.176764
ALL 98.924914
AMD 430.675932
ANG 2.005524
AOA 1048.230274
ARS 1080.411629
AUD 1.626274
AWG 2.014753
AZN 1.904943
BAM 1.955691
BBD 2.246784
BDT 132.972569
BGN 1.954589
BHD 0.421837
BIF 3227.178229
BMD 1.119307
BND 1.43409
BOB 7.689502
BRL 6.10112
BSD 1.112743
BTN 93.092998
BWP 14.622575
BYN 3.641694
BYR 21938.426002
BZD 2.243035
CAD 1.503509
CDF 3207.372538
CHF 0.942384
CLF 0.037065
CLP 1022.744999
CNY 7.860561
CNH 7.85371
COP 4643.726779
CRC 577.678039
CUC 1.119307
CUP 29.661647
CVE 110.258838
CZK 25.087482
DJF 198.149812
DKK 7.457475
DOP 66.917456
DZD 148.177495
EGP 54.525606
ERN 16.789612
ETB 132.820551
FJD 2.445071
FKP 0.852419
GBP 0.834309
GEL 3.050146
GGP 0.852419
GHS 17.525864
GIP 0.852419
GMD 76.677407
GNF 9613.548649
GTQ 8.601519
GYD 232.80491
HKD 8.716528
HNL 27.637949
HRK 7.610184
HTG 147.055723
HUF 394.186328
IDR 16901.598447
ILS 4.204623
IMP 0.852419
INR 93.564364
IQD 1457.757607
IRR 47114.446489
ISK 151.095006
JEP 0.852419
JMD 175.604893
JOD 0.793251
JPY 160.450463
KES 143.259601
KGS 94.270541
KHR 4522.050295
KMF 494.678059
KPW 1007.37607
KRW 1488.510825
KWD 0.341535
KYD 0.927373
KZT 533.68448
LAK 24529.286657
LBP 99649.502064
LKR 337.170195
LRD 222.549551
LSL 19.278239
LTL 3.305024
LVL 0.677058
LYD 5.279729
MAD 10.782701
MDL 19.423435
MGA 5029.853725
MKD 61.515792
MMK 3635.466933
MNT 3803.406662
MOP 8.92374
MRU 44.019933
MUR 51.34309
MVR 17.192597
MWK 1929.543886
MXN 21.645537
MYR 4.617699
MZN 71.467739
NAD 19.278239
NGN 1829.617053
NIO 40.948992
NOK 11.643926
NPR 148.951338
NZD 1.7669
OMR 0.430886
PAB 1.112738
PEN 4.198665
PGK 4.356815
PHP 62.589996
PKR 309.123406
PLN 4.255125
PYG 8660.554704
QAR 4.055973
RON 4.97465
RSD 117.061721
RUB 103.42405
RWF 1501.942903
SAR 4.199304
SBD 9.301144
SCR 14.153881
SDG 673.257204
SEK 11.288714
SGD 1.436726
SHP 0.852419
SLE 25.573156
SLL 23471.311798
SOS 635.975823
SRD 33.857932
STD 23167.404323
SVC 9.736717
SYP 2812.293474
SZL 19.284008
THB 36.516845
TJS 11.828539
TMT 3.917576
TND 3.372112
TOP 2.621526
TRY 38.209328
TTD 7.57178
TWD 35.674007
TZS 3056.828171
UAH 45.976763
UGX 4116.733163
USD 1.119307
UYU 46.397407
UZS 14184.207336
VEF 4054750.036532
VES 41.150838
VND 27470.603069
VUV 132.886429
WST 3.131221
XAF 655.932064
XAG 0.034959
XAU 0.00042
XCD 3.024984
XDR 0.823176
XOF 655.923275
XPF 119.331742
YER 280.1648
ZAR 19.372413
ZMK 10075.107333
ZMW 29.516142
ZWL 360.416542
La IA enfrenta el desafío de aprender a olvidar los errores asimilados
La IA enfrenta el desafío de aprender a olvidar los errores asimilados / Foto: OLIVIER MORIN - AFP/Archivos

La IA enfrenta el desafío de aprender a olvidar los errores asimilados

Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea.

Tamaño del texto:

Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT.

Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales.

Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales.

"Irónicamente, la gran cantidad de [información en] prensa sobre mi historia corrigió los registros", relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia.

La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema.

"La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro", señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia.

En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA.

En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el "desaprendizaje automático", que trata de entrenar algoritmos para que "olviden" datos que sean problemáticos.

- "Una herramienta interesante" -

Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó a AFP que este tema comenzó a cobrar relevancia en los últimos tres o cuatro años.

Entre quienes se apuntaron a este desafío está Google DeepMind, la división de IA del gigante californiano.

Los expertos de Google redactaron junto a Kurmanji un artículo publicado el mes pasado en el que proponen un algoritmo para depurar los datos seleccionados de las bases que componen los algoritmos en los que se basan ChatGPT y el chatbot Bard de Google.

Además, Google lanzó una competencia en junio para medir distintos métodos para "desaprender", que hasta ahora atrajo a más de 1.000 participantes.

Kurmanji afirma que "desaprender" puede ser una "herramienta muy interesante" para que los motores de búsqueda administren las peticiones para eliminar contenido, por ejemplo debido a asuntos relacionados con las leyes sobre la privacidad.

El experto afirmó además que el algoritmo también logró buenos resultados en pruebas de eliminación de material protegido por derechos de autor y en la corrección de sesgos.

- "No es la panacea" -

Lisa Given señaló que todavía hay mucho desconocimiento sobre cómo funcionan estos sistemas e incluso sobre cuáles son las bases de datos que sirven como entrenamiento para estas máquinas, por lo que encontrar una solución puede ser un proceso largo.

Michael Rovatsos, de la Universidad de Edimburgo, apuntó que quedan aristas técnicas por resolver, por ejemplo qué hacer si una compañía recibe una ola de peticiones para eliminar contenido.

Añadió que el desaprendizaje no resuelve temas más amplios que enfrenta la industria de la IA, como la forma en que la que se recopilan los datos, quién se beneficia de su uso o quién asume la responsabilidad si un algoritmo causa un daño.

"La solución técnica no es la panacea", afirmó.

En un momento en que la investigación sobre este campo está en pañales y la regulación es casi inexistente, Hood, que es un ferviente defensor del la IA, pese a su experiencia, señaló que todavía estamos en una era de soluciones anticuadas.

"Cuando los chatbot generan basura, los usuarios simplemente necesitan revisar todo dos veces", afirmó.

P.E.Steiner--NZN