Nel XXI secolo, o meglio negli ultimi anni di esso i modelli di intelligenza artificiale hanno iniziato a scavarsi una nicchia sempre più profonda nel mercato globale. Simile è stata la tendenza seguita in Europa, dove il mercato dell’IA è cresciuto esponenzialmente dal 2018 ad adesso.
Bisogna, tuttavia, tenere in conto il potenziale tasso di rischio che si nasconde nell’uso massivo e deregolamentato di tali sistemi. Infatti, già da anni si parla dei cosiddetti deep fake, immagini o contenuti audiovisivi creati da IA tramite una manipolazione a un livello molto profondo e sensibile di dati biometrici di persone di qualsivoglia tipo, da semplici cittadini, a star del cinema, per arrivare a personaggi pubblici nell’ambito della politica dei vari stati. Ovviamente la presenza di questi contenuti online è fortemente minante nei confronti della tutela dei diritti dell’individuo, andando a derubarlo della sua privacy fino nell’intimo della propria immagine. Per questo motivo e non solo l’Unione Europea, a partire dal 2021 ad adesso, si è mossa nella direzione di una regolamentazione sistematica nell’utilizzo di intelligenze artificiali e contenuti tramite esse create. Lo scopo è la tutela dei diritti umani secondo i principi unionistici.
È, per questo motivo, che nel 2024 è diventato, anzi diventerà, poiché si parla di agosto 2024, attiva la legge denominata AI Act, ossia il Regolamento Europeo sull’intelligenza artificiale. Con tale proposta l’Unione Europea si impegna a fornire ai suoi cittadini sistemi IA sicuri e rispettosi della privacy del singolo, andando a categorizzare in diversi livelli di rischio le tecnologie che sfruttano l’intelligenza artificiale. La pubblicazione dell’atto finale, tradotto in tutte le lingue, in Gazzetta Ufficiale UE è attesa per il 12 di questo mese, con una conseguente entrata in vigore venti giorni dopo, ossia il 2 agosto 2024. L’atto è stato approvato in modo quasi plebiscitario, con 523 Paesi votanti a favore, solo 46 contrari e 49 astenuti.
Questo rappresenta un enorme balzo in avanti per la UE, che diventerà di fatto la prima confederazione di stati a regolamentare l’utilizzo delle intelligenze artificiali nell’ambito del cittadino. Il tutto significa che anche i colossi esteri, soprattutto statunitensi, se vorranno continuare ad avere un mercato europeo, dovranno adeguarsi a tale sistema. Il succitato sistema va a suddividere le IA in diverse categorie, quattro per essere precisi, in base al livello di rischio per l’utente: si hanno le IA a rischio minimo, limitato, alto e, per finire, inaccettabile. Il regolamento entro febbraio 2025 prevede una prima graduale eliminazione dei sistemi vietati, per arrivare al 2027 con il raggiungimento di una piena sicurezza. L’obiettivo è quello che le aziende che fanno utilizzo di intelligenze artificiali lo facciano in modo etico e trasparente. È emersa come fondamentale la tutela dei dati personali, con una rigida regolamentazione del riconoscimento facciale, della biometria e del social scoring, o punteggio sociale, ossia di una valutazione comportamentale dei cittadini in base alle loro attività online e offline (Il sistema è stato per primo utilizzato in Cina per avere sotto controllo la cittadinanza e la relativa reputazione individuale, mentre, come detto, si considera violazione dei diritti dell’individuo in Unione europea).
Vi sono, tuttavia, alcune eccezioni. Ad esempio, in ambito militare le garanzie per il singolo non sono così stringenti, anche se, in ogni caso, è prevista l’applicazione di un regolamento per il riconoscimento facciale nel corso delle operazioni e relative indagini in ogni caso tutelante il complesso dirittuale del singolo.
Ad ogni modo, lo scopo e il focus del suddetto regolamento è e sarà un impulso verso l’implementazione etica dell’intelligenza artificiale nel settore imprenditoriale e commerciale europeo, in modo da garantire un balzo in avanti per l’Europa nell’ambito della tecnologia con, però, il mantenimento della tutela di quelli che vengono considerati i valori e i diritti cardini della cittadinanza europea. Il patto prevede quindi il mantenimento di un equilibrio piuttosto delicato tra sviluppo tecno-economico e privacy dell’individuo. Una sfida alquanto ardua.
Il piano rappresenta infatti un qualcosa il cui raggiungimento fino ad ora è risultato complesso in varie parti del mondo. Diverse piattaforme online hanno fino ad ora accumulato dati, tra cui anche immagini, sensibili dei loro utenti, predisponendo il terreno per molteplici fughe di informazioni e relative frodi o, comunque sia, azioni a dolo dei suddetti individui. Lo stesso discorso vale per l’uso, sempre più in voga di chat bot, o bot digitali a cui si rifanno molteplici aziende, tra cui colossi come Amazon e Apple, che pur non essendo europei, hanno mercato anche in Europa. Questi bot inizialmente hanno svolto il solo ruolo di sostituto del personale umano a livello dell’assistenza clientelare. Ad oggi, tuttavia, essi sono in grado di, ad esempio, fare molto di più che fornire mere informazioni preconfezionate per domande tipo. Si pensi alla più famosa Chat CPT, una piattaforma alimentata da un’IA in grado di assistere l’utente nelle azioni quotidiane di tutti i giorni, nell’ambito lavorativo, scolastico e casalingo. L’intelligenza artificiale in questione è, in modo quasi sconcertante, in grado di creare trame e corpus di testi narrativi a scopo ludico o accademico. Testi che risultano credibilmente creati da individui umani e non artificiali.
È a questo punto che si palesa il quesito etico sull’utilizzo delle IA: quanto è lecito farne uso e in che misura esse possono sostituire in modo effettivo ma non dannoso l’interazione umano-umano? Infatti, tali sistemi in ambiti come la medicina e l’ingegneria biomedica si sono rivelati incredibilmente utili, andando a sostenere e affiancare l’azione umana. Si è resa così possibile una pletora di operazioni molto delicate, come quelle in campo neurologico, ottico e neonatale, che all’utilizzo unico della mano, seppur esperta, del chirurgo erano a dir poco rischiose, se non del tutto impossibili, o con un tasso di sopravvivenza inferiore a quello della patologia da curare. La mano umana è, per definizione, fallibile. L’aiuto della tecnologia l’ha resa più precisa.
L’ambito medico non è l’unico a beneficiare dell’azione delle IA: si pensi all’architettura e a quanto sia agevole per gli esperti avere a propria disposizione un software che è in grado di creare da zero diversi rendering, ossia immagini tridimensionali, realistiche al limite dell’incredibile, di interni ed esterni. Si va pressoché a sfondare la barriera della limitatezza immaginativa umana e si apre a un universo tecnologico di possibilità.
Eppure, quanto è etico in un approccio più olistico e pandimensionale? Il capitalismo, infatti, sta o potrebbe portare i grandi industriali a sostituire il personale umano, spesso sottopagato e sfruttato, con bot artificiali ugualmente efficienti, ma a costo zero. L’IA rappresenta un boccone alquanto ghiotto per l’industria di reminiscenza fordiana, che vede l’individuo come mero numero e non come persona.
Altro problema che si palesa è quello dell’uso a scopo scolastico di tali tecnologie. Infatti, esse, come detto in precedenza, sono in grado di creare testi credibili e in generale di aiutare nel momento del compito a casa o del test a scuola. Sta al singolo studente e alla sua coscienza il limite di tale utilizzo. La cosa si presenta come piuttosto aleatoria.
È per questi e simili quesiti che una regolamentazione dell’uso dell’intelligenza artificiale nei vari settori è fondamentale e in questo l’Europa sta per ottenere un primato e di certo fare un passo avanti notevole nell’ambito del diritto umano. Con l’AI Act si andrà infatti a definire cosa è considerabile lecito e cosa non lo è, ma si farà anche molto di più, difendendo i diritti del singolo, spesso considerati in modo erroneo come dovuti in un ambito democratico e non come privilegi dati dalla cittadinanza, in questo caso, europea. In tal modo si inizierà a tematizzare un argomento di importanza rilevante in diversi campi, ossia cosa sia una persona, dove sta il limen, quali siano le caratteristiche che la vanno a definire. Si apre così un dibattito di più elevate dimensioni che porta a domandarsi se l’intelligenza artificiale potrà mai sostituire in toto una persona umana e se, in tal caso assumesse le caratteristiche succitate, quanto lecito sarebbe esercitare un potere coercitivo su di esse, al pari di come ci si pone il medesimo quesito nella sfera del diritto per ora solo umano.
Segui i commenti: |