Lo sviluppo di tecnologie di intelligenza artificiale ha conosciuto negli ultimi anni un sensibile incremento. La potenzialità delle IA si è espansa notevolmente nel giro di pochissimo tempo, andando ad impattare in maniera estremamente tangibile ambiti che fino a poco tempo fa sembravano intoccabili.

Software capaci di espandere le capacità lavorative e creative dell’individuo sono ormai alla portata di tutti e questo fa sì che sorgano quesiti in merito alle possibilità di manipolazione che essi possono garantire. Un software di intelligenza artificiale può scrivere articoli, disegnare, produrre video, campionare voci e i risultati sono spesso difficilmente distinguibili dalla realtà.

Nel corso degli ultimi anni sono sorte una serie di questioni etiche relative allo sviluppo e all’impiego di tecnologie di intelligenza artificiale. Si tratta in primo luogo di stabilire fino a che punto sia possibile permettere a questi software di agire: è necessario valutare attentamente gli algoritmi su cui si basano le IA e stabilire se essi siano in grado di rispondere in maniera efficiente alle situazioni che, con vari gradi di complessità, possono presentarsi.

Il tema etico, ma anche giuridico, è particolarmente rilevante perché sostituire un umano con un’IA è un problema anche di assunzione di responsabilità rispetto a ciò che la macchina può o non può fare. Con l’espansione degli utilizzi dell’intelligenza artificiale anche in ambito medico o scientifico, la questione è tutt’altro che triviale.
Sull’abuso di software di intelligenza artificiale nella ricerca scientifica si concentra uno studio di Arvind Narayanan e Sayash Kapoor dell’università di Princeton, riportato da Wired. In particolare, i due studiosi evidenziano i rischi connessi all’uso non adeguatamente supervisionato di software di machine-learning per elaborare modelli di ricerca. I facili entusiasmi con cui i ricercatori, specie neofiti, si approcciano, spesso con una conoscenza superficiale dello strumento, all’apprendimento automatico conduce, secondo Narayanan e Kapoor, a esiti falsati. Pertanto, l’impatto e l’utilità di questa tecnologia vanno opportunamente considerati nel momento del loro impiego, onde evitare di produrre risultati sovrastimati o sottostimati, quando non fallaci.
Questioni di questo genere tengono banco nei vari dibattiti. Per questa ragione varie istituzioni, nazionali e sovranazionali, si sono dotate di “carte etiche” per disciplinare e regolamentare lo sviluppo di queste tecnologie. La necessità fondamentale di questi documenti è quella di garantire che il progresso e le l’utilizzo delle IA avvenga in condizioni di trasparenza.

In particolare, la carta adottata nel 2018 dal Consiglio d’Europa impone cinque principi etici fondamentali:
1- Rispetto dei diritti fondamentali
2- Non discriminazione
3- Qualità e sicurezza
4- Trasparenza, imparzialità, equità
5- Controllo da parte dell’utilizzatore
I punti sopraelencati pongono al centro del dibattito l’imprescindibile tutela dei diritti di ogni individuo, come la libertà, la dignità, il rispetto della persona. Oltre a ciò, però, si impone agli sviluppatori di adottare certi standard qualitativi che garantiscano all’utilizzatore un servizio adeguato e, soprattutto, al riparo da rischi di violazione o circolazione non autorizzata di dati. A questo proposito, risulta importante anche il quinto e ultimo punto, che stabilisce che il controllo sull’applicazione e le sue ramificazioni sia garantito all’utilizzatore, il quale in qualsiasi momento deve essere messo in condizione di modificare o cancellare la trasmissione dei dati che produce.
Si tratta di disposizioni che disegnano un orizzonte di senso e che orientano, virtuosamente, lo sviluppo tecnologico. Il punto fondamentale è quello di tenere sempre separato l’“umano” dal “virtuale”. Al primo va garantito l’assoluto controllo sul secondo; quanto pertiene all’umano, inoltre, va salvaguardato dall’appiattimento sul virtuale: la capacità e la creatività di ciascuno vanno armoniosamente integrate con gli strumenti virtuali. Essi non possono e non devono diventare un surrogato. Per questo motivo, è necessaria un’opera di “pedagogia digitale” affinché uno strumento così potente sia messo davvero al servizio del bene comune.

1 commento

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here