Hem de tenir por de la intel·ligència artificial?

Terminator, el personatge que exemplifica la suposada "maldat" de les intel·ligències artificials
Compartir

Personatges com el científic Stephen Hawking o l’inversor Elon Musk (cofundador de Paypal) han advertit del perill que representa la intel·ligència artificial. Jo crec que s’equivoquen.

No són, però, els primers que pensen en aquesta línia; qui més qui menys, segur que molts de vosaltres que llegiu aquestes ratlles heu vist alguna de les pel·lícules que composen la saga cinematogràfica de Terminator, potser l’exemple més popular d’intel·ligència artificial “dolenta” que vol exterminar la humanitat.

A un nivell més actual, hi ha molta gent que es queixa de l’excessiva dependència que tenim dels smartphones, per exemple, i que no veu amb bons ulls que els cotxes es condueixin sols per les nostres autopistes perquè “poden fallar i patir un accident“.

Certament, un aparell mecànic pot patir una fallada en algun dels seus mecanismes, provocant amb això un accident amb víctimes mortals. Això pot passar, però ara deixeu-me que us expliqui què és el que no pot passar de cap de les maneres.

No pot passar que el cotxe autoconduït s’emborratxi i esclafi uns vianants o uns ciclistes que se li creuen en el pas perquè no pot reaccionar a temps i frenar com cal; no pot passar que tingui pressa per arribar a casa i superi el límit de velocitat permès; no pot passar que “s’emprenyi” amb un altre conductor perquè aquest fa una maniobra que no esperava. Tampoc pot passar que es deixi guiar pel temperament i les emocions al volant, quelcom que si que ens pot passar i ens passa massa sovint als humans.

Si us hi fixeu en les estadístiques, la majoria dels accidents són provocats per errades humanes: excés de velocitat (el cotxe no prem sol l’accelerador), ingestió de substàncies que ens fan reaccionar de manera inapropriada al volant, o conductes de risc.

De la mateixa manera, és més fàcil creure que un robot no premeria el gallet d’una arma en “entendre” que la violència perjudica, fins i tot, al guanyador d’una baralla. Tot i que els éssers humans coneixem de sobres l’expressió “en la guerra, hi perden tots, tant guanyadors com vençuts“, a la pràctica massa sovint ens ha costat fer-li cas. Guerres preventives, guerres de conquesta, guerres per delegació… massa termes per referir-se a un mal anomenat “art de la guerra” (des de quan matar gent pot ser considerat art?) que indiquen que, en tot moment, sempre hi ha algú que es creu que pot sortir-se’n d’un conflicte armat com a guanyador. I la sola pèrdua d’una vida, sigui del bàndol que sigui, ja el desmenteix.

Isaac Asimov té una bonica història que, si no recordo malament, clou el seu celebrat “Jo, robot”, en la qual les màquines que ajuden a planificar el consum de recursos i la fabricació a nivell mundial, cometen una sèrie d’errades que, després d’una investigació, els responsables humans acaben concloent que porten a la humanitat a una forma de vida més rústica i controlada per les mateixes màquines. La “revolta silenciosa” d’aquestes darreres no té motius de sed de domini: senzillament, han arribat a la conclusió lògica de que el principal perill per a la humanitat és la mateixa humanitat i que, per a ajudar-la, l’han de controlar.

En l’estat en el que es troba avui en dia la intel·ligència artificial, a mi particularment m’és impossible titllar-la d’intel·ligència real. Per a mi només es tracta de la realització de càlculs a gran velocitat. El dia que una màquina sigui conscient de la seva pròpia existència i es comenci a preguntar per la seva natura, aquell dia haurem arribat a crear el que només la natura en milions d’anys ha aconseguit (i, per a alguns, Deu en uns pocs dies).

El mateix Asimov ens presentava tres lleis per als robots: 1) un robot no pot fer mal a un ésser humà o, per inacció, permetre que un ésser humà prengui mal. 2) Un robot ha d’obeir les ordres dels éssers humans, excepte si entren en conflicte amb la primera llei. 3) Un robot ha de protegir la seva pròpia existència en la mesura que aquesta protecció no entri en conflicte amb la primera o la segona llei.

Només programant aquestes tres lleis en qualsevol intel·ligència artificial, n’hi hauria d’haver-hi prou per protegir la nostra tranquil·litat i disposar de màquines que gestionin certes tasques i conductes molt millor que un ésser humà.

Perquè, si m’ho pregunteu, em sentiria molt més segur i tranquil tornant de festa a casa a quarts de cinc de la matinada en un cotxe robòtic que es creui pel camí amb altres cotxes robòtics, que no pas haver de patir la possibilitat que algun boig amb massa alcohol (i a saber quines altres substàncies a la sang) se’m tiri a sobre amb el seu vehicle.

Hem de tenir por de la intel·ligència artificial?
Valoreu aquesta publicació

Guillem Alsina
Periodista freelance especialitzat en noves tecnologies, redactor d'YCOM.cat
Etiquetes: