- Cosa succederebbe se gli algoritmi stessero imparando la logica del pregiudizio?
- L’intelligenza artificiale può riprodurre stereotipi di genere, culturali e razzisti?
Come anticipato è partita a settembre 2019 la prima CPF italiana a Milano (Comunità di Pratica di Futuro): nei cinque incontri previsti fino a settembre 2020 lavoreremo su diversi temi scelti collettivamente e di cui saranno redatti brevi abstract e documenti più allargati. Questo il primo tema scelto e trattato in un esercizio di futuro condotto da Joice Preira, futurista masterizzata all’Università di Trento. Di seguito vengono fornite alcune linee metodologiche e di contenuto seguite durante la giornata. A fine 2020 verranno divulgati i risultati dei diversi temi indagati con i metodi futuristi.
Lo scorso 25 novembre i partecipanti della CPF hanno indagato i bias etnici, di genere e culturali presenti negli algoritmi A.I. (Artificial Intelligence), Joice Preira per lavorarci su ha scelto il metodo 3H (ovvero Tre orizzonti, uno dei metodi di Foresight strategico che suddivide il contesto di indagine in tre orizzonti temporali, nel nostro caso 2019 – 2030 – 2040).
Durante la prima fase è stato esplorato il primo orizzonte, il 2019, indagando lo status attuale dell’intelligenza artificiale, la governance, i programmi in atto e l’infosfera di riferimento.
La seconda fase ha preso in esame il terzo orizzonte, quello del 2040. I partecipanti al workshop, attraverso domande specifiche, si sono immersi in quella realtà, descrivendo , come sarà l’intelligenza artificiale tra vent’anni, in quali dispositivi sarà utilizzata e se vi sarà una modifica positiva o negativa della governance e dei programmi a livello mondiale.
Nella terza fase infine si è indagata la visione dell’innovatore, individuando stakeholders, enti, politiche, best practices che possano modificare lo status attuale risolvendo i problemi attuali sull’ Intelligenza Artificiale.
Al termine del workshop si sono individuati i segnali deboli presenti oggi in grado di portare ad una risoluzione del problema iniziale, ovvero i bias di genere, culturali e razzisti.
Iscriviti alla newsletter di Generation Mover™ per ricevere i risultati dell’esercizio di futuro disponibili.
Joice Preira e Gloria Puppi