Le IA stanno promuovendo le diseguaglianze e aumentando l'effetto serra

L’industria dell’intelligenza artificiale sta aumentando vertiginosamente i suoi impatti sociali e ambientali.
Lo sta facendo ingenerando – oramai senza alcun ritegno – continue diseguaglianze, discriminazione e pseudoscienza, soprattutto nei confronti dei lavoratori, ancor di più verso quelli con minor competenze tecnico-scientifiche.
Nel frattempo, sempre le stesse aziende tecnologiche continuano a spingere sull’uso illimitato del riconoscimento facciale (soprattutto per quel che riguarda le emozioni e gli stati d’animo), ignorano totalmente anche la potenziale “impronta di carbonio” (emissioni di CO2 nel corso dell’intero ciclo di vita delle IA) derivante della famelica corsa all’approvvigionamento energetico necessaria ad alimentare l’impressionante rete di server indispensabile per il funzionamento “globale” dei sistemi di intelligenza artificiale.

AI NOW 2019 REPORT

E’ quanto si legge nel nuovo rapporto appena pubblicato dall’AI Now Institute, un ente privato americano di ricerca sugli impatti sociali ed economici delle nuove tecnologie algoritmiche.

Nel rapporto, noto come AI Now 2019 Report, vengono formulate 12 raccomandazioni per l’industria tecnologica e i responsabili politici, poichè attraverso diversi domini e contesti l’IA sta allargando la disuguaglianza tra le nazioni e le popolazioni, sta mettendo le informazioni e il loro controllo nelle mani di coloro che già ne hanno il potere, depotenziando ulteriormente coloro non in grado di potervi accedere.

Ciò è particolarmente vero nel campo del riconoscimento delle emozioni, un aspetto della tecnologia del riconoscimento facciale che promette di determinare la personalità o lo stato emotivo di qualcuno (dipendente, paziente o lavoratore) in base alla sua espressione facciale.

La tecnologia fu lanciata come uno strumento per agevolare la selezione dei candidati per determinati incarichi di lavoro, ma anche per tenere traccia dell’attenzione degli studenti nelle scuole o raccogliere dati sugli stati emotivi degli acquirenti all’interno dei negozi.

AI Now raccomanda un chiaro divieto legislativo sull’uso della tecnologia “emozionale” quando applicata a decisioni critiche come l’assunzione di un dipendente o la valutazione delle potenzialità di uno studente.

Un’altra area emergente di preoccupazione è l’impatto ambientale della gestione di programmi di intelligenza artificiale.
AI Now cita un rapporto di un gruppo dell’Università del Massachusetts (Amherst), in cui si stima che l’energia consumata nel processo di formazione di una A.I. (machine learning) possa arrivare a produrre quasi 300.000 kg di emissioni di anidride carbonica.
Come soluzione proposta, i ricercatori di AI Now suggeriscono che i legislatori dovrebbero obbligare le aziende a divulgare pubblicamente le “impronte di carbonio” delle loro A.I..

Quattro delle 12 raccomandazioni, inoltre, criticano specificamente l’uso dell’intelligenza artificiale per la sorveglianza, invocando moratorie sul riconoscimento facciale, oltre ad ampliare la portata delle leggi relative alla raccolta di dati biometrici (tra cui impronte digitali e DNA).
Mentre tre municipalità negli Stati Uniti hanno espilicitamente vietato il riconoscimento facciale (San Francisco, Oakland e Somerville, Massachusetts) a livello mondiale la legislazione statale e/o federale può considerarsi sostanzialmente ferma.

Altre raccomandazioni si concentrano sulla mancanza di diversità (soprattutto di genere) nel settore tecnologico, sull’uso dell’automazione dei processi da parte delle imprese per ridurre i dipendenti umani e sull’ostilità nei confronti dell’I.A. (paradossalmente proveniente principalmente dai lavoratori che operano nel settore della tecnologia) con fortissime preoccupazioni etiche su quello che sarà l’effettivo impatto sul loro lavoro.

Non è un caso, conclude il Rapporto, che troppo spesso le decisioni su come un sistema di I.A. viene utilizzato dai dipartimenti di vendita e dai dirigenti aziendali viene occultato dietro il paravento legale di accordi contrattuali, quindi altamente riservati e non direttamente accessibili sia agli stessi lavoratori che al pubblico.

Pubblicato da danieleverdescablog

architect of information & ethical designer

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: