βπππ πππππ ππ πππππ ππ πππ π‘ππ πππππ§π§π, π πππ π ππ ππ’ππ π‘π π ππππ πππππ π πππβ – π.πΆβπ’πππππ
La rivoluzione dellβinformazione Γ¨ sia tecnologica che concettuale: la tecnologia, diffusa oramai in modo capillare nelle nostre vite, ha cambiato non solo il modo in cui facciamo le cose ma anche come pensiamo il mondo. Se in un primo momento della rivoluzione si poteva distinguere tra il mondo on-line e quello off-line, ora lo spazio virtuale e quello fisico si stanno fondendo per cui si parla di on-life.
Per vedere lβimpatto sulla nostra vita possono bastare due semplici esempi: prima partecipare a una conferenza significava esser presenti ed essere localizzati laddove si teneva la conferenza, ora i due aspetti sono separati, si puΓ² partecipare a una conferenza essendo distanti. Un altro esempio Γ¨ quello della guerra: le guerre tradizionali sono violente e si muore, ora a quelle tradizionali si affianca un altro tipo di guerra, la cyber war, aggressiva certo, ma nella realtΓ virtuale non si muore.
Per governare questo cambiamento e lβimpatto della tecnologia sulle nostre vite occorre darci dei principi e fissare dei valori che devono essere rispettati per poter evitare i rischi e sfruttare al massimo il potenziale buono della tecnologia. Per questo serve lβetica del digitale.
Lβintelligenza artificiale puΓ² essere definita come una macchina che imita il comportamento umano per risolvere problemi specifici, capace di apprendere e di comportamento autonomo nellβambiente.
Eβ utilizzata oramai in moltissimi ambiti con successo, ci toglie lβincombenza di lavori monotoni, come tosare il giardino, ma ci aiuta anche a risolvere problemi molto difficili e puΓ² essere usata in supporto del nostro benessere. Eβ stata utilizzata nella ricerca del vaccino per il Covid, puΓ² esser usata per studiare i meccanismi del climate change, per decidere la gestione delle risorse ambientali per uno sviluppo sostenibile.
Per lβintelligenza Artificiale si presentano 5 tipologie di rischio:
β’ Favorire gli errori umani: un esempio di questo tipo di rischio sono i bias, i pregiudizi per cui le macchine riproducono gli errori umani nella correlazione dei dati usato per profilare individui o gruppi di individui ai fini di ricerca o commerciali. La macchina puΓ² essere utilizzata in modo discriminatorio. Un caso famoso Γ¨ stato quello di un algoritmo che doveva monitorare le famiglie americane per segnalare gli abusi sui minori e che riportava piΓΉ spesso le famiglie afroamericane.
β’ Ridurre la capacitΓ di controllo: lβIA puΓ² essere vista come una black box che prende decisioni, ma non in modo trasparente, avendo impatto sulle nostre vite. Ad esempio in Amazon era emerso che lβalgoritmo di selezione del personale discriminava le donne.
β’ La rimozione delle responsabilitΓ : Γ¨ sbagliato antropoformizzare le macchine, la responsabilitΓ delle loro azioni Γ¨ comunque dellβessere umano.
β’ La svalutazione delle capacitΓ umane: il fatto che delle macchine siano in grado di analizzare una radiografia oppure di far atterrare un aereo non implica che gli umani cessino di saperlo fare, altrimenti perdiamo la possibilitΓ di capire quando le macchine sbagliano
β’ Lβerosione della capacitΓ di autodeterminazione: la tecnologia proattiva media tra noi e il mondo intorno a noi, spingendoci verso certe scelte piuttosto che in altre direzioni, dobbiamo esserne coscienti. Esempio pratico sono i suggerimenti di acquisto di libri o altri oggetti in base ai nostri gusti.
Dobbiamo quindi identificare i valori che vogliamo difendere e creare delle regole per evitare gli errori che portano ai rischi sopra elencati: Γ¨ necessario trovare un bilanciamento, perchΓ¨ regole troppo restrittive porterebbero ad annullare i benefici derivanti dallβinnovazione.
A questo proposito un esempio Γ¨ dato dal GDPR, un regolamento che ha come principio di base la centralitΓ della dignitΓ umana e la difesa della privacy. Un eccesso di rigiditΓ porta perΓ² a difendere la privacy a danno di altri valori quale potrebbe essere la salute.
Lβetica deve essere declinata in funzione dei dati, degli algoritmi e delle pratiche, ad esempio definendo le responsabilitΓ degli sviluppatori e degli utenti.
LβUnione Europea ha pubblicato da poco nel 2019 le linee guida βOrientamenti etici per una AI affidabileβ.
La governance deve assicurare che lo sviluppo della societΓ digitale sia conforme ai valori della nostra societΓ . Valori che si vuole salvaguardare sono il mantenimento di societΓ aperte e plurali, dove non siano consentire fake news. VerrΓ il momento in cui il digitale cesserΓ di essere unβinnovazione si parlerΓ allora di societΓ post-digitale: come sarΓ questa societΓ dipende dalla capacitΓ di governo di questo sviluppo.