Article interessant al Financial Times sobre el míssil que el passat 28 de febrer va caure sobre una escola de Minab, al sud de l'Iran, i va matar 170 o 180 nenes.
Però qui va cometre un crim tan atroç? Qui és tan despietat per assassinar tantes nenes innocents a la seva escola?
L'exterminador només podria ser Déu... o el diable. Però és evident que aquestes entitats altíssimes no es preocupen gaire per les nostres nenes ni pels seus patiments i alegries, ja que estan permanentment dedicades a emetre el seu “fred somriure espacial”, del qual parla el poema de Hermann Hesse a El llop estepari.
Si les nenes no les va matar ni Déu, ni les va matar el diable, les va matar l'ésser humà? Encara que, és clar, en aquest món hi ha gent molt dolenta (sense anar més lluny: el meu veí, el del soterrani!), tampoc no és plausible que tal grau de perversitat, el que es necessita per bombardejar nenes, sigui cosa pròpia dels éssers humans.
No, aquí hi ha d'haver intervingut una quarta entitat. Una que està sotmesa a “al·lucinacions”. L'editorial del Financial Times del dissabte passat apuntava en aquesta direcció. El reprodueixo a continuació, i tot seguit exposaré una conclusió:
Bombardeig en una escola a Minab, Iran
“A l'Iran, la IA ha arribat al camp de batalla. Les forces nord-americanes estan utilitzant aquesta tecnologia per millorar la presa de decisions, ajudar a processar enormes volums de dades per identificar objectius i optimitzar la logística militar.
>> Inevitablement, conflictes com aquest es converteixen en camps de prova per a tecnologies capdavanteres. Això no fa sinó subratllar la necessitat urgent d'una governança eficaç, juntament amb límits clars sobre quan i com s'utilitza la IA en els sistemes d'armes.
>> Un dels riscos rau en el control inadequat de les dades, que són l'element vital de tots els sistemes d'IA. Els models són tan bons com la informació amb què s'entrenen. No hi ha proves que la IA hagi estat responsable del recent i devastador atac amb míssils contra una escola de nenes al sud de l'Iran, però la investigació hauria de posar el focus en com es verifiquen les dades utilitzades en la selecció d'objectius.
>> Un altre risc és que les persones encarregades de prendre decisions de vida o mort basant-se en recomanacions de sistemes d'IA puguin tenir dificultats per qüestionar les màquines. Alguns experts adverteixen que això ja podria estar passant en el conflicte iranià, donada la dificultat perquè un ésser humà comprengui tots els factors que intervenen en l'avaluació d'un model d'IA.
>> També existeix una pressió creixent per eliminar completament els humans del procés, per exemple en situacions en què la interferència enemiga en les comunicacions fa impossible mantenir el control humà directe sobre una arma. Els Estats Units ja estan treballant en drons totalment autònoms per defensar Taiwan davant un possible atac xinès. Això afegeix una nova urgència a la necessitat de limitar l'ús de sistemes d'armes autònomes letals (LAWS, per les seves sigles en anglès).
>> Almenys per ara, sembla apropiada una moratòria sobre el seu ús, i eventualment podria ser necessària una prohibició total. Una de les raons per fer-ho és la manca de fiabilitat. La IA actual, basada en sistemes probabilístics propensos a les anomenades “al·lucinacions”, no és prou fiable com per confiar-li el poder sobre la vida i la mort. Aquesta va ser una de les raons per les quals Anthropic es va oposar a cedir el control total de la seva IA al Pentàgon per a ús classificat, la qual cosa va portar el govern nord-americà a prendre la dràstica mesura, a principis d'aquest mes, de prohibir la seva tecnologia a les cadenes de subministrament militar.
>> També existeix un argument moral contra les armes autònomes: que la decisió de prendre una vida humana no hauria de subcontractar-se a una màquina. Fins i tot encara que tingués una autonomia total, però, sempre hi hauria una persona responsable d'activar l'arma, cosa que podria mantenir una línia directa de responsabilitat.
>> També es podria plantejar un argument moral a favor de les armes automatitzades, si es demostrés que redueixen els errors humans que provoquen víctimes civils. L'argument més fort per limitar l'expansió de la IA al camp de batalla és que, com altres tecnologies transformadores, podria canviar completament la naturalesa mateixa de la guerra.
>> És impossible predir totes les formes en què això podria succeir, però algunes de les possibilitats que s'han suggerit són realment horribles, com l'ús d'eixams de drons de baix cost per rastrejar i eliminar grans quantitats d'oponents.
>> No estaria malament, per començar, que els Estats Units i la Xina, com a superpotències en IA, acordessin alguns límits pràctics sobre el seu propi ús d'armes autònomes, juntament amb mesures per evitar la proliferació d'aquesta tecnologia. Un altre pas seria que el grup de l'ONU que fa anys que debat una possible prohibició internacional de les armes autònomes, similar a la prohibició de les armes químiques i biològiques, arribés a una conclusió.
>> Cada cop és més urgent actuar. Amb cada nou conflicte internacional, la incursió de la IA a la guerra no farà més que accelerar-se”.
Refineria de petroli de Shahran després de l'atac aeri a Teheran, Iran
Fins aquí l'editorial del diari esmentat. I ara la meva conclusió: hem creat una cosa meravellosa, la IA, però és tan despietada i incontrolable com el teu darrer xicot, aquell que tant et va putejar.
Ha tornat, i amb ganes de revenja. 200 nenes iranianes no és res, comparat amb el que ve. Prepara't, preparem-nos tots.