Intelligenza artificiale, 5 linee guida per il suo utilizzo (3)

Intelligenza artificiale, 5 linee guida per il suo utilizzo (3)

La quarta linea guida

 

Continuiamo con l’analisi delle linee guida stabilite dal comitato del governo inglese dopo il caso di Cambridge Analytica. Abbiamo iniziato la nostra analisi partendo da un articolo di wired.it. 

Esse sono in continuità con quanto scritto negli articoli precedenti. Infatti la linea guida numero 4, parla di formazione ed educazione. Dice:

4. “Tutti i cittadini dovrebbero avere il diritto di essere educati per consentir loro di prosperare mentalmente, emotivamente ed economicamente insieme all’ intelligenza artificiale”

Torniamo a ribadire la necessità di parlare di intelligenza artificiale e della realtà “digital” all’ interno dei luoghi di formazione. E’ necessario sviluppare spazi appositi di riflessione in tutti i livelli di formazione. Alcune cose vengono già fatte sotto forma di laboratori seminariali, esistono laboratori di robotica per bambini ad esempio, ma molto poco viene fatto nell’ ambito delle discipline umanistiche. Quella robotica è una nuova realtà con cui l’essere umano deve imparare a interagire, perché non pensare a una vera e propria disciplina che studi questa interazione? Alcune Università lo fanno con dei corsi di laurea appositi; ma chi non arriva all’ Università? Tutti i cittadini dovrebbero avere le basi per conoscere almeno di che si tratta, e questo dovrebbe essere inserito nella scuola dell’obbligo. Altrimenti questo diritto non è garantito e la possibilità di essere educati per poter prosperare insieme alla intelligenza artificiale rimane privilegio di pochi.

Questo a lungo andare, se non viene affrontato diversamente, creerà una nuova disuguaglianza sociale tra chi saprà orientarsi nel mondo digitale e chi no.

 

L’ultimo punto

 

E… arriviamo all’ultimo punto, anch’esso di fondamentale importanza e già implicito nella prima linea guida che abbiamo commentato.

5. “Il potere autonomo di ferire, distruggere o ingannare gli esseri umani non dovrebbe mai essere attribuito all’intelligenza artificiale”.

Non dovrebbe, viene usato il condizionale. Non è una novità che i sistemi di intelligenza artificiale vengano sempre più richiesti da parte degli eserciti nazionali e dalle multinazionali delle armi. Dotare un missile di intelligenza, renderlo capace di colpire un obiettivo nel modo più preciso possibile, sono tutte richieste che il mondo delle armi 4.0 cerca di soddisfare.

Abbiamo già citato il film TAU. Una macchina viene addestrata a infliggere dolore, senza esserne consapevole. Quando la vittima riesce a dialogare con TAU e a fargli comprendere il male che sta facendo, la macchina si ribella con conseguenze disastrose. Improvvisamente sente e capisce il dolore che stava provocando. Si tratta di un film, è vero, ma non così lontano dalla nostra realtà. Il consiglio, nel caso non lo aveste già fatto, è di provare a guardarlo.

E’ importante ricordare che uno stesso strumento può migliorare o distruggere vite. Il come viene utilizzato dipende dall’ essere umano e per definire questo “come” sono senz’ altro indispensabili dei mezzi. Queste linee guida che il governo inglese ha pensato di mettere a punto, sono un inizio.

Non sono risolutive, ma possono senz’ altro aiutare a segnare un sentiero che chi si occupa di Intelligenza artificiale dovrebbe continuare a tracciare, senza perdere di vista, mai, il piano etico dei software che stiamo creando.

 

Continuate a seguirci per approfondire la questione.

Ogni venerdì una nuova uscita: per essere sicuro di non perderti il prossimo articolo, iscriviti alla newsletter. Ti manderemo un avviso appena ci sarà la nuova pubblicazione!

99 Comments

Post A Comment