Skip to content
Avvocato, esperto di etica e tecnico informatico

I tre livelli di analisi dell’intelligenza artificiale: etica, legale, tecnica

L’intelligenza artificiale (IA) è un campo in rapida evoluzione che sta trasformando molti aspetti della nostra società. Per comprendere appieno l’impatto e le sfide dell’IA, è utile considerarla attraverso tre prospettive interconnesse: etica, legale e tecnica. 

Questi tre livelli formano un ecosistema complesso in cui ogni elemento influenza ed è influenzato dagli altri. Iniziamo dal livello etico. 

Livello etico

L’etica nell’IA si occupa delle questioni morali e dei valori che dovrebbero guidare lo sviluppo, l’implementazione e l’uso di sistemi intelligenti. 

Questo livello affronta domande fondamentali. Quali principi morali dovrebbero governare le decisioni prese dalle macchine? Come possiamo garantire che l’IA sia utilizzata per il bene dell’umanità e non per il suo detrimento?  Un aspetto cruciale dell’etica dell’IA è l’equità e la non discriminazione. Gli algoritmi di IA, se non progettati e addestrati con attenzione, possono perpetuare o addirittura amplificare i pregiudizi esistenti nella società.

Ad esempio, un sistema di IA utilizzato per la selezione dei candidati potrebbe involontariamente discriminare determinati gruppi se addestrato su dati storici che riflettono pregiudizi passati.   

Un altro punto chiave è la trasparenza e la spiegabilità dei sistemi di IA. Molti algoritmi avanzati, come le reti neurali profonde, funzionano come “scatole nere”, rendendo difficile comprendere come giungono alle decisioni. Questo solleva preoccupazioni sugli aspetti che riguardano la responsabilità e la fiducia, specialmente quando l’IA viene utilizzata in ambiti critici e delicati come la medicina o il sistema giudiziario.  

La privacy è un’altra questione etica fondamentale. L’IA spesso richiede grandi quantità di dati per funzionare efficacemente, ma questo solleva interrogativi su come questi dati vengano raccolti, archiviati e utilizzati. Come possiamo bilanciare i benefici dell’IA con il diritto alla privacy degli individui? 

L’approccio etico che preferisco alla visione dell’IA è quello di una nuova modalità di pensare l’agire e l’intelligenza (Floridi): prima dell’irrompere dell’IA si pensava che determinati modi di agire fossero dettati dall’intelligenza. Ora, con l’IA, dietro determinati modi di agire (per esempio classificare elementi o generare immagini o testi) può anche esserci l’assenza di intelligenza ma solo una computazione probabilistica e algoritmica. Si parla per la prima volta nella storia di divozio tra agire ed essere. Le “macchine” sanno fare sempre più cose meglio degli umani, senza nemmeno pensare. E’ come se improvvisamente si dovesse riflettere sul fatto che la memoria (delle macchine) essendo enormemente maggiore di quella dell’uomo, sia in grado di superare l’intelligenza (dell’uomo) in molti compiti, sebbene le macchine non siano intelligenti. Solo che le reputiamo tali, da un lato, perché abbiamo chiamato negli anni Cinquanta del secolo scorso queste manifestazioni “intelligenza artificiale” (Chiriatti infatti parla di Incoscienza Artificiale, N. Prandi di Intelligenza Umana Aumentata, non di intelligenza artificiale), dall’altro perché siamo abituati a pensare che svolgere certe azioni significhi necessariamente essere intelligenti.

Livello legale

Passando al livello legale, ci troviamo di fronte alla sfida di tradurre queste considerazioni etiche in leggi e regolamenti concreti. Il quadro giuridico per l’IA è ancora in evoluzione, con legislatori in tutto il mondo che cercano di tenere il passo con i rapidi progressi tecnologici.  Un esempio significativo è il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea, che ha implicazioni importanti per l’IA. Il GDPR stabilisce regole stringenti sulla raccolta e l’uso dei dati personali, incluso il “diritto alla spiegazione” per le decisioni automatizzate che influenzano significativamente la vita delle persone.  

La responsabilità legale è un’altra area critica. Se un’auto a guida autonoma è coinvolta in un incidente, chi è responsabile? Il produttore dell’auto, lo sviluppatore del software, o il “conducente” umano? Queste questioni stanno spingendo i legislatori a ripensare i concetti tradizionali di responsabilità civile e penale. I diritti di proprietà intellettuale rappresentano un’altra sfida legale. Quando un’IA crea un’opera d’arte o inventa qualcosa di nuovo, chi detiene i diritti su quella creazione? Queste domande stanno mettendo alla prova i sistemi di copyright e brevetti esistenti.  

Occorre poi considerare L’AI Act dell’Unione Europea entrato in vigore il 2 agosto 2024, che propone una classificazione dei sistemi di IA in quattro categorie basate sul livello di rischio:

1. Rischio inaccettabile: sistemi vietati nell’UE, salvo rare eccezioni.

2. Rischio elevato: soggetti a requisiti rigorosi come valutazione della conformità, supervisione umana, trasparenza e sicurezza.

3. Rischio limitato: con obblighi meno stringenti.

4. Sistemi di GenAI con rischio sistemico per l’UE: categoria aggiunta nel 2023, con obblighi supplementari.

Questa categorizzazione mira a bilanciare l’innovazione con la sicurezza, concentrando le risorse di vigilanza sui sistemi più rischiosi. I criteri di valutazione del rischio sono definiti negli Allegati II e III del Regolamento, considerando fattori come lo scopo d’uso, il contesto e le caratteristiche tecniche.

L’approccio è progettato per essere flessibile, permettendo aggiornamenti periodici della classificazione in base all’evoluzione tecnologica e alle nuove conoscenze sui rischi. Questo dovrebbe garantire che il quadro normativo rimanga attuale ed efficace nel tempo.

Questa struttura cerca di equilibrare la necessità di regolamentazione con il desiderio di non ostacolare eccessivamente l’innovazione, specialmente per le PMI che sviluppano sistemi a rischio limitato.

Sarà inoltre interessante vedere l’evoluzione anche nella pubblica amministrazione, visto che entro dicembre 2025, le PA dovranno recepire le Linee guida AGID:

  • per promuovere l’adozione dell’IA nella pubblica amministrazione 
  • per il procurement di IA nella pubblica amministrazione 
  • per lo sviluppo di applicazioni IA nella pubblica amministrazione 

Livello tecnico

Infine, abbiamo il livello tecnico, che riguarda gli aspetti pratici e tecnologici dell’IA. Questo livello si concentra sullo sviluppo di algoritmi, sull’architettura dei sistemi e sull’implementazione pratica delle soluzioni di IA.  

L’apprendimento automatico è al cuore di molti sistemi di IA moderni. Questo campo comprende una vasta gamma di tecniche, dalle semplici regressioni lineari alle complesse reti neurali profonde. Gli sviluppatori di IA devono costantemente bilanciare la potenza predittiva di questi modelli con la loro interpretabilità ed efficienza computazionale.

L’elaborazione del linguaggio naturale (NLP) è un’altra area tecnica chiave, che consente alle macchine di comprendere e generare il linguaggio umano. I progressi nel NLP hanno portato ad assistenti virtuali sempre più sofisticati e a sistemi di traduzione automatica più accurati.  

La visione artificiale è un altro campo in rapida evoluzione che permette alle macchine di “vedere” e interpretare il mondo visivo. Questa tecnologia è alla base di molte applicazioni, dalle auto a guida autonoma ai sistemi di sorveglianza avanzati.  

La robotica e i sistemi autonomi rappresentano l’intersezione dell’IA con il mondo fisico. Questi sistemi devono integrare percezione, ragionamento e azione in ambienti complessi e imprevedibili.  

Infine, l’infrastruttura tecnica che supporta l’IA, inclusi i vari cloud e i sistemi di calcolo ad alte prestazioni e le architetture di archiviazione dati, sono fondamentale per rendere possibili queste applicazioni avanzate.  

Senza dimenticare la neuroscienza e la fusione cervello-macchina che ha la sua punta dell’iceberg in Neuralink di Elon Musk, ma che si manifesta nel mondo della disabilità da anni in molti modi e può essere potenziata enormemente dagli algoritmi di IA. Ci sono tecnologie già oggi utilizzate sia in ambito sanitario sia ‘consumer’ che aiutano a potenziare le capacità cognitive registrando una serie di parametri fisici e celebrali, i cui dati elaborati da intelligenze artificiali diventano dati di terzi e non sono nostri nemmeno in lettura. Normali app scaricabili dagli store aiutano a capire quando è il momento migliore per fare un’attività: quello che per alcuni è cura, può diventare per altri potenziamento.

Ultimo ma non per imporanza, va poi ricordato il passaggio delle tecnologie quantistiche dall’ambito di ricerca all’ambito produttivo. Questo passaggio potrebbero potenziare ulteriormente la capacità di calcolo attuale, che è uno degli abilitatori di questa nuova estate dell’IA.

La potenza di calcolo si somma come abilitatori ad algoritmi innovativi (transformer con attenzione), dati (big data) e ambiente adatto allo sviluppo di IA (infosera). L’IA trova infatti il suo habitat naturale nell’infosfera, mondo digitale interconnesso in cui tutti siamo immersi e consumiamo e produciamo dati, e in cui lei è in grado di sviluppare il suo massimo potenziale. Senza dati infatti, farebbe molta fatica ad imparare ad “agire senza pensare”.

Tutto questo andrà protetto e in un mondo sempre più digitale dovremo tutelare le nostre “algo-conquiste” oltre che i nostri dati interni ed esterni, le infrastrutture e dispositivi.

Conclusioni

È quindi importante notare che questi tre livelli – etico, legale e tecnico – sono interconnessi

Le considerazioni etiche informano lo sviluppo di nuove leggi, che a loro volta influenzano le soluzioni tecniche adottate. Allo stesso tempo, i progressi tecnici spesso sollevano nuove questioni etiche e legali.  Ad esempio, i progressi nelle tecniche di apprendimento profondo hanno portato a sistemi di IA più potenti, ma anche meno trasparenti, sollevando preoccupazioni etiche sulla spiegabilità. 

Queste preoccupazioni hanno portato a nuove leggi sulla trasparenza algoritmica, che a loro volta stanno spingendo gli sviluppatori a cercare soluzioni tecniche per rendere i modelli di IA più interpretabili.  

In conclusione, comprendere l’IA attraverso questi tre livelli ci offre una visione olistica delle sfide e delle opportunità presentate da questa tecnologia trasformativa. 

Mentre continuiamo a spingerci oltre i confini di ciò che è possibile con l’IA, sarà essenziale mantenere un dialogo continuo tra eticisti, legislatori e tecnologi per garantire che l’IA sia sviluppata e utilizzata in modo responsabile, equo e benefico per tutta l’umanità.

L’algoretica nasce proprio dall’intersezione di competenze tecniche, etiche e legali.

Share this
Torna su