algoritmi

Sento dire in giro che gli algoritmi sono tecnologie potenti e che le società sono monopoli e non possiamo farci niente contro, e Google è l’unica opzione possibile“, afferma Kartik Hosanagar, professore di tecnologia e business digitale all’Università della Pennsylvania. “Sto cercando di far capire che non è così.

Hosanagar è l’autore di A Human’s Guide to Machine Intelligence: come gli algoritmi modellano la nostra vita e come possiamo mantenere il controllo, che esce il 12 marzo da Penguin Random House. Il libro porta il lettore a scoprire tutti i modi in cui le vite quotidiane vengono toccate dagli algoritmi. The Verge ha parlato a Hosanagar dell’ultima parte del libro.

Ero interessato alla domanda su come possiamo “controllare” gli algoritmi. Ma prima di arrivarci, puoi dirmi perché hanno bisogno di essere controllati?“, dice l’intervista.

Risponde il professore: Penso che la maggior parte delle persone utilizzi la tecnologia in modo passivo, non necessariamente prendendo atto di come funzioni dietro le quinte. Ciò andrebbe bene se tutto ciò che sta cambiando è l’efficienza con cui vengono prese le decisioni, ma arrivano anche rischi e conseguenze impreviste.

Leggi anche:  In Francia si utilizzano robot con inteliggenza artificiale per parcheggiare le auto

 

Una visione contorta ma vera

E poiché prendiamo a volte decisioni su vasta scala, ovvero per migliaia o addirittura milioni di persone, il rischio è alto.

Il primo è legato alla trasparenza per quanto riguarda i dati utilizzati. Ma prima di arrivarci, la trasparenza inizia lasciando che l’utente sappia che un algoritmo sta prendendo una decisione. Spesso, non lo sappiamo. Se chiedete un prestito e questo viene respinto online, non si sa nemmeno chi ha preso la decisione. Quindi è necessario iniziare facendo sapere all’utente come un algoritmo funziona dietro le quinte.

Inoltre, è necessaria la trasparenza per quanto riguarda i dati utilizzati. Quali erano le diverse variabili utilizzate, ad esempio, in una richiesta online? Quindi, la seconda cosa è che si ha bisogno di trasparenza per quanto riguarda i modelli che non mostrano, il che significa che bisogna chiedere spiegazioni non solo sui dati utilizzati, ma di come l‘algoritmo sia arrivato a quella decisione.