โ๐๐๐ ๐๐๐๐๐ ๐๐ ๐๐๐๐๐ ๐๐ ๐๐๐ ๐ก๐๐ ๐๐๐๐๐ง๐ง๐, ๐ ๐๐๐ ๐ ๐๐ ๐๐ข๐๐ ๐ก๐ ๐ ๐๐๐๐ ๐๐๐๐๐ ๐ ๐๐๐โ – ๐.๐ถโ๐ข๐๐๐๐๐
La rivoluzione dellโinformazione รจ sia tecnologica che concettuale: la tecnologia, diffusa oramai in modo capillare nelle nostre vite, ha cambiato non solo il modo in cui facciamo le cose ma anche come pensiamo il mondo. Se in un primo momento della rivoluzione si poteva distinguere tra il mondo on-line e quello off-line, ora lo spazio virtuale e quello fisico si stanno fondendo per cui si parla di on-life.
Per vedere lโimpatto sulla nostra vita possono bastare due semplici esempi: prima partecipare a una conferenza significava esser presenti ed essere localizzati laddove si teneva la conferenza, ora i due aspetti sono separati, si puรฒ partecipare a una conferenza essendo distanti. Un altro esempio รจ quello della guerra: le guerre tradizionali sono violente e si muore, ora a quelle tradizionali si affianca un altro tipo di guerra, la cyber war, aggressiva certo, ma nella realtร virtuale non si muore.
Per governare questo cambiamento e lโimpatto della tecnologia sulle nostre vite occorre darci dei principi e fissare dei valori che devono essere rispettati per poter evitare i rischi e sfruttare al massimo il potenziale buono della tecnologia. Per questo serve lโetica del digitale.
Lโintelligenza artificiale puรฒ essere definita come una macchina che imita il comportamento umano per risolvere problemi specifici, capace di apprendere e di comportamento autonomo nellโambiente.
Eโ utilizzata oramai in moltissimi ambiti con successo, ci toglie lโincombenza di lavori monotoni, come tosare il giardino, ma ci aiuta anche a risolvere problemi molto difficili e puรฒ essere usata in supporto del nostro benessere. Eโ stata utilizzata nella ricerca del vaccino per il Covid, puรฒ esser usata per studiare i meccanismi del climate change, per decidere la gestione delle risorse ambientali per uno sviluppo sostenibile.
Per lโintelligenza Artificiale si presentano 5 tipologie di rischio:
โข Favorire gli errori umani: un esempio di questo tipo di rischio sono i bias, i pregiudizi per cui le macchine riproducono gli errori umani nella correlazione dei dati usato per profilare individui o gruppi di individui ai fini di ricerca o commerciali. La macchina puรฒ essere utilizzata in modo discriminatorio. Un caso famoso รจ stato quello di un algoritmo che doveva monitorare le famiglie americane per segnalare gli abusi sui minori e che riportava piรน spesso le famiglie afroamericane.
โข Ridurre la capacitร di controllo: lโIA puรฒ essere vista come una black box che prende decisioni, ma non in modo trasparente, avendo impatto sulle nostre vite. Ad esempio in Amazon era emerso che lโalgoritmo di selezione del personale discriminava le donne.
โข La rimozione delle responsabilitร : รจ sbagliato antropoformizzare le macchine, la responsabilitร delle loro azioni รจ comunque dellโessere umano.
โข La svalutazione delle capacitร umane: il fatto che delle macchine siano in grado di analizzare una radiografia oppure di far atterrare un aereo non implica che gli umani cessino di saperlo fare, altrimenti perdiamo la possibilitร di capire quando le macchine sbagliano
โข Lโerosione della capacitร di autodeterminazione: la tecnologia proattiva media tra noi e il mondo intorno a noi, spingendoci verso certe scelte piuttosto che in altre direzioni, dobbiamo esserne coscienti. Esempio pratico sono i suggerimenti di acquisto di libri o altri oggetti in base ai nostri gusti.
Dobbiamo quindi identificare i valori che vogliamo difendere e creare delle regole per evitare gli errori che portano ai rischi sopra elencati: รจ necessario trovare un bilanciamento, perchรจ regole troppo restrittive porterebbero ad annullare i benefici derivanti dallโinnovazione.
A questo proposito un esempio รจ dato dal GDPR, un regolamento che ha come principio di base la centralitร della dignitร umana e la difesa della privacy. Un eccesso di rigiditร porta perรฒ a difendere la privacy a danno di altri valori quale potrebbe essere la salute.
Lโetica deve essere declinata in funzione dei dati, degli algoritmi e delle pratiche, ad esempio definendo le responsabilitร degli sviluppatori e degli utenti.
LโUnione Europea ha pubblicato da poco nel 2019 le linee guida โOrientamenti etici per una AI affidabileโ.
La governance deve assicurare che lo sviluppo della societร digitale sia conforme ai valori della nostra societร . Valori che si vuole salvaguardare sono il mantenimento di societร aperte e plurali, dove non siano consentire fake news. Verrร il momento in cui il digitale cesserร di essere unโinnovazione si parlerร allora di societร post-digitale: come sarร questa societร dipende dalla capacitร di governo di questo sviluppo.