Le professioni intellettuali nell’era dell’Intelligenza Artificiale (AI): le possibili regole per il futuro

Le professioni intellettuali non sono più “al riparo” dall’Intelligenza Artificiale (AI). La messa in discussione del ruolo all’interno del mondo del lavoro non è più per gli operai o la bassa manovalanza: tutt’altro. Sono proprio le professioni intellettuali a poter essere quelle più colpite.
Ormai tutti i rapporti recentemente rilasciati da istituzioni ed enti di ricerca vedono l’Intelligenza Artificiale (non i robot) come la principale antagonista dei ruoli professionali, poiché in grado di poter prendere decisioni in modo più rapido e valutando tutte quelle infinite variabili e scenari possibili che la mente umana non è in grado di affrontare (lavorando anche 24/7 e trattando in poco tempo miliardi di terabyte di informazioni).
Architetti e ingegneri, ma ancor prima commercialisti e notai possono essere tranquillamente sostituiti dall’AI.
La domanda non è più SE, ma semplicemente QUANDO.

Di questa prospettiva preoccupante per le professioni intellettuali nell’era dell’Intelligenza Artificiale (AI) ne parlerò approfonditamente in molti dei prossimi post.

Ancora prima delle opportunità professionali o della “grande estinzione”, si pone però un problema profondamente etico: poiché l’Intelligenza Artificiale potrà prendere decisioni autonome dall’uomo, è fondamentale che le regole etiche, oltre a quelle normative, siano condivise da tutti per porre le basi di uno sviluppo positivo e senza distorsioni che duri negli anni a venire.

Per questo è nato, su spinta di Atomium (European Institute for science, media and democracy), il progetto AI4People, una task force di esperti da tutta Europa che hanno pubblicato un documento (scaricabile alla fine del post) con una serie di principi e raccomandazioni per porre le basi di una intelligenza artificiale positiva, inclusiva, al servizio dell’uomo.

Vediamo allora quali di queste regole proposte possono essere rilevanti per le professioni intellettuali o per gli “Artigiani del digitale”.

Quattro principi più uno

Prima di procedere alle raccomandazioni per lo sviluppo di una AI sana, gli esperti hanno individuato alcuni principi guida: i primi quattro presi in prestito dalla bioetica, il quinto invece aggiunto ex novo.

Il primo è quello della beneficenza. L’intelligenza artificiale deve essere sviluppata al fine di promuovere la dignità umana in un modo che sia sostenibile per il pianeta.

Il secondo è quello di non fare il male. Uno sviluppo non controllato della AI può portare anche effetti negativi, come la violazionedella privacy e della sicurezza stessa dell’uomo. Effetti che devono essere prevenuti sia quando deliberati (si veda alle politiche di controllo invasivo di alcuni governi), sia quando siano accidentali. L’intelligenza artificiale stessa “dovrebbe lavorare contro i rischi che potrebbero sorgere dallo sviluppo tecnologico”.

Il terzo principio è quello dell’autonomia. Le persone devono avere il diritto di prendere decisioni su un trattamento che li riguarda. È quindi opportuno trovare un bilanciamento tra le decisioni prese dall’uomo e quelle prese dalle macchine: ogni decisione della AI deve poteressere bloccata dall’uomo (anche se rimane irrisolto il problema del come?).

Il quarto è la giustizia. “Lo sviluppo della AI dovrebbe promuovere la giustizia e cercare di eliminare ogni tipo di discriminazione”. Questo comporta eliminare le disuguaglianze passate ma anche non crearne di nuove ed evitare di creare un mondo a due velocità. I vantaggi dell’intelligenza artificiale devono essere massimamente condivisi.

L’ultimo principio, quello nuovo, è quello della spiegabilità. Poiché poche persone stanno disegnando il nostro futuro, è importante capire come lo stanno facendo, seguendo quali regole. Cosa c’è dietro le decisioni di un algoritmo? Chi è responsabile per quelle decisioni? Questi processi devono essere noti a tutti, non solo agli esperti, per creare la fiducia che sarà alla base della relazione tra uomo e macchina.

Alcune raccomandazioni

Il documento si conclude con venti raccomandazioni per chi lavora sullo sviluppo della AI, che siano privati, governi o istituzioni. Alla base c’è la necessità di lavorare per “assicurare la fiducia delle persone sull’intelligenza artificiale, servire l’interesse della collettività e rafforzare una condivisa responsabilità sociale”, un lavoro che dovrà essere continuo nel tempo.

Prima di tutto bisogna “valutare la capacità dei tribunali di rimediare agli errori fatti dai sistemi di AI”, scegliendo “quali decisioni non si possano delegare alla macchina”. Dal punto di vista legislativo invece sarà bene fare dialogare le leggi con l’etica in modo da creare un quadro normativo che possa prevedere gli sviluppi futuri della tecnologia.

Per risolvere il problema della trasparenza degli algoritmi bisognerà dare agli stessi tribunali gli strumenti per capire come fare indagini a riguardo. A ciò si aggiungeranno dei meccanismi per individuare i pregiudizi della AI, che possano portare a disuguaglianze non lecite nel trattamento delle persone, come potrebbe succedere in campo assicurativo. Infine lo sviluppo di un Osservatorio europeo e di una Agenzia europea che supervisioni lo sviluppo di servizi e software basati sull’intelligenza artificiale.

Per creare la migliore AI possibile, le istituzioni e le aziende dovranno finanziare e incentivare lo sviluppo di tecnologie che lavorino per il bene comune e nel rispetto dell’ambiente, tenendo conto dei risvolti legali, sociali ed etici, verificando con sondaggi tra i cittadini quali conseguenze potrebbero derivare dal loro uso.

Da ultimo, gli esperti consigliano di pensare a codici di condotta interni per le professioni, come quelle mediche, legali e tecniche, che lavoreranno con i dati e l’intelligenza artificiale. Allo stesso tempo i vertici delle aziende dovranno iniziare ad approfondire i risvolti etici delle loro decisioni. Chiunque si occupi di AI dovrà approfondire i risvolti sociali, legali ed etici che il suo uso comporta e queste conoscenze dovranno far parte del suo curriculum.

Il ruolo etico delle professioni intellettuali (e quindi degli Artigiani del Digitale) non sarà quello relativo a come si “programma” un algoritmo o come di “addestra” un’intelligenza artificiale. Ma come questa verrà utilizzata nell’ambito della professione e i risvolti etici che ne deriveranno. I medici assassini o i legali venduti alle mafie esistono da tempo remoto, ben prima dell’avvento dei computer. Analogamente, anche le case malprogettate (le periferie per risparmiare soldi ne sono un esempio violento) o i materiali impiegati (amianto docet come ora i dubbi sulle nanotecnologie) sono ulteriori elementi che devono pesantemente entrare nell’ambito della riflessione etica dei professionisti intellettuali.

L’elenco potrebbe essere lunghissimo dell’uso distorto delle informazioni e dei dati che si può fare con la potenza dell’Intelligenza Artificiale.

Prima di discutere, quindi, su quanti posti di lavoro ruberà, sarà opportuno iniziare a rendersi consapevoli su:

  • Come conviverci senza farsi “schiacciare”;
  • Come farne un uso etico, deontologicamente corretto, come vorrebbe la “morale” delle professioni intellettuali.

Siamo ancora agli albori e c’è bisogno lavorare molto su questo processo di consapevolezza: il problema è che l’AI corre velocemente e non sappiano in quanto poco tempo inizierà a dispiegare gli effetti del suo enorme potenziale.


Autore: danieleverdescablog

ARTIGIANO del digitale ed ECOLOGISTA della tecnologia nel mondo del lavoro

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...