NotíciesSocietat

Els quatre reptes ètics de la intel·ligència artificial

Els anys vinents, el mercat de la intel·ligència artificial superarà els 52.000 milions d'euros

En sectors com l’industrial, el de transports, de la salut o les finances, la presència de la intel·ligència artificial creixerà a un ritme molt àgil els anys vinents. Ho conclou l’empresa de robòtica col·laborativa i estructures intel·ligents Airtificial, que calcula que el 2025 el mercat de la intel·ligència artificial (IA) arribarà a 52.700 milions d’euros, 9 vegades més del que avui s’inverteix en aquest sector, en què es mouen gairebé 6.000 milions d’euros. Aquest augment progressiu de l’ús de la intel·ligència artificial ha portat la Comissió Europea a reunir 52 experts independents per a debatre unes directrius ètiques que caldrà seguir en el desenvolupament i l’ús de la intel·ligència artificial.

I és que aquesta nova forma de coneixement pot presentar conflictes als quals els experts pensen que la societat s’ha d’anticipar. «Tot descobriment, nova creació o nova capacitat que desenvolupem per a generar un nou poder o una nova possibilitat de fer les coses comporten la pregunta de qui en farà ús i quina direcció els volem donar, perquè tot es pot emprar per a generar benestar o per a destruir», explica Miquel Seguró Mendlewicz, professor col·laborador dels Estudis d’Arts i Humanitats de la UOC.

Per això es considera necessària una reflexió ètica sobre la intel·ligència que es plantegi preguntes com «què és la intel·ligència, què és artificial, qui fa aquest artifici, per què, per a què, si l’objectiu és generar més justícia social i més benestar o generar una competència neocapitalista per a veure qui es desenvolupa més bé per mitjà de les capacitats que aquesta intel·ligència pot oferir, si és per al bé públic i, per tant, quedarà en mans de l’estat o no… L’ètica de la intel·ligència artificial es queda, més que en la resposta, en la pregunta. Des de la filosofia hem d’eixamplar l’espai de la pregunta», assenyala el professor expert en filosofia política i ètica, que considera que els principals reptes per a l’ètica de la intel·ligència artificial es poden resumir en quatre:

  1. La intel·ligència artificial no és neutral, respon a uns interessos i a uns usos, i són aquests els que cal definir per a concretar en quina direcció van.
  2. Darrere de qualsevol tipus d’artifici que es generi hi ha la responsabilitat humana, i, per tant, també darrere de la idea d’intel·ligència artificial, aquesta responsabilitat no és ineludible.
  3. La idea d’intel·ligència, per un pòsit positivista i neopositivista, s’ha reduït col·loquialment a la capacitat de càlcul, de racionalitzar, de dur a terme operacions de precisió, i s’ha deixat fora d’aquesta noció altres possibilitats que tenen més a veure amb les humanitats, l’art, etc. Però d’intel·ligències n’hi ha moltes: caldria definir quin tipus d’intel·ligències volem generar.
  4. Cal concretar l’ús polític que es farà d’aquesta intel·ligència i qui vigilarà que es faci de manera equitativa.

Controlar el que és incontrolable

L’atracció que el desenvolupament de la intel·ligència artificial exerceix en la societat ha portat els experts a preguntar-se què és el que ens la fa tan fascinant. I la resposta sembla apuntar a l’anhel de control. Com explica Miquel Seguró, hi ha la il·lusió que per mitjà de la intel·ligència artificial «tindrem més control de les nostres vides i dels problemes que les nostres vides contenen. Però això és només una cara de l’experiència, perquè hi ha abraçades, somriures, silencis… que no hi ha manera de programar ni de predir, ja que depenen del context i d’unes habilitats que no són simplement quantitatives, sinó que exigeixen un desenvolupament personal, una audàcia personal i assumir la capacitat d’errar», assenyala.

Evitar les discriminacions

De fet, el control total no sembla possible. La intel·ligència artificial fa servir algoritmes per a extreure conclusions i prendre decisions. I tot aquest procés utilitza dades que, de vegades, poden ser discriminatòries. Va ser el que va passar amb l’algoritme Compas, creat per ajudar els jutges dels Estats Units a decidir sobre la llibertat provisional. Després de les primeres proves es va concloure que es tractava d’un algoritme racista perquè feia servir dades de departaments policials en què la majoria dels detinguts eren negres, de manera que l’algoritme va establir que el risc de ser criminal era més elevat entre aquestes persones.

Un col·lectiu amb moltes probabilitats de ser discriminat en els programes d’intel·ligència artificial és el de la gent gran, que corre el risc de ser invisibilitzada. Com expliquen les investigadores de la UOC Andrea Rosales i Mireia Fernández Ardèvol, expertes en persones grans i TIC, els sistemes d’intel·ligència artificial utilitzats per a recollir i analitzar dades sovint s’obliden d’aquest col·lectiu. «Quan s’investiguen els usos dels espais públics d’una ciutat, s’analitzen les dades dels mòbils que tenen el wifi activat: des del temps que les persones destinen a travessar un carrer per un semàfor fins al temps que necessiten per a pujar les escales de metro. Però en l’anàlisi d’aquests estudis no es tenen en compte minories que o bé no tenen wifi al mòbil o bé, si en tenen, el porten sempre desactivat», assenyalen com a exemple de les possibles discriminacions que es poden cometre en l’ús de la intel·ligència artificial.

Font: UOC

Tags
Mostra més

Articles relacionats

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *

Close