La psicopatologia della vita artificiale

La psicopatologia della vita artificiale

Il caso di Norman, prima intelligenza artificiale psicopatica

 

Ci siamo trovate di fronte a una notizia di cronaca che ci ha fatto molto pensare. Al MIT di Boston hanno creato Norman, la prima intelligenza artificiale che ha presentato disturbi psicopatici. L’esperimento nasce dalla volontà di dimostrare che le immagini con cui alleniamo un algoritmo hanno ripercussioni importantissime sul suo sviluppo. Sono stati utilizzati due algoritmi, impostati allo stesso modo.

A uno di questi hanno mostrato immagini “normali”, le solite con cui questi robot vengono allenati; all’altro, Norman, hanno mostrato solo immagini di violenza, traumatiche, ricche di sofferenza. Dopodiché hanno somministrato ad entrambi il test di Rorschach. Questo test è uno strumento utilizzato in psichiatria e in psicologia come test della personalità. Consiste in un test proiettivo: osservando delle macchie su un foglio di carta, che riconducono a diverse immagini, il soggetto studiato deve indicare cosa rappresentino per lui, quali immagini vede. Nel primo caso l’intelligenza artificiale rispondeva senza dimostrare particolari problemi; Norman invece è risultato con una diagnosi di patologia psichica. Nelle immagini del test vedeva violenza e scene truci, laddove la prima intelligenza artificiale trovava fiori e scene armoniose.

 

Cosa dicono gli studi di computer vision?

 

Gli studi di computer vision, la disciplina che cerca di capire come insegnare ai computer a leggere le immagini, afferma che non è tanto importante sviluppare algoritmi migliori di quelli esistenti, quanto allenarli in maniera più etica.
Abbiamo più volte parlato di quanto sia importante offrire all’intelligenza artificiale un set di dati che sia il più possibile divergente dagli stereotipi e dai pregiudizi che caratterizzano la mente umana.
Se riproduciamo stereotipi e pregiudizi in quello che offriamo alle macchine, in questo caso nelle immagini, anche i robot che programmiamo saranno ricchi delle stesse limitazioni mentali.
Se invece proponiamo set di dati vari, che vadano oltre queste barriere, allora è possibile che i robot si sviluppino come entità inclusive, prive di pregiudizi, in grado di collaborare con le diversità e di fungere da strumento migliorativo all’interno delle nostre vite.

Il significato dell’esperimento

 

Oltre a fornire prove rispetto a questo, l’esperimento ha mosso altre riflessioni. C’è chi ha parlato di un possibile futuro in cui nasceranno discipline dedicate alla psicologia dell’intelligenza artificiale. Di fatto all’antropologia si affiancheranno nuove scienze “umane”. L’umano andrà studiato anche in relazione a questi nuovi esseri artificiali. Quello su cui ci siamo soffermate noi, però, è un altro aspetto. Se nascesse una psicologia artificiale che studiasse questo tipo di intelligenza, sarebbe possibile diagnosticare la devianza e riportare le AI ad un allenamento etico. Ciò renderebbe possibile prevedere con un certo anticipo in quanto tempo un IA potrebbe diventare razzista, xenofoba o sessista.

Noi cerchiamo di intervenire con azioni preventive, facendo formazione e informazione, diffondendo le conoscenze sui meccanismi con cui viene allenata l’intelligenza artificiale. Tuttavia oggi potrebbe non essere sufficiente, i robot sono tra noi e, così come alcuni esseri umani, potrebbero assumere atteggiamenti pericolosi e discriminanti nei nostri confronti. Oggi è possibile pensare a una scienza che si occupi di studiare le personalità artificiali? Il futuro verso il quale stiamo andando è un futuro in cui un robot potrà scegliere di andare in terapia?

Cosa ne pensate? Siete intimoriti o incuriositi dalla possibilità che un’intelligenza artificiale possa sviluppare una propria personalità?

Lasciate un commento!

 

Continuate a seguirci per approfondire la questione.

Ogni venerdì una nuova uscita: per essere sicuro di non perderti il prossimo articolo, iscriviti alla newsletter. Ti manderemo un avviso appena ci sarà la nuova pubblicazione!

364 Comments

Post A Comment