Intelligenza artificiale, il discorso in Parlamento del senatore Marco Lombardo

Si è parlato parecchio, nelle ultime settimane, dell’intelligenza artificiale e delle criticità che ne accompagnano l’utilizzo sempre più estensivo. Al di là dei posti di lavoro che la tecnologia andrà con tutta probabilità a sostituire, i timori sono legati soprattutto a questioni etiche, specie per quanto concerne l’informazione. Alcuni fra i creatori dell’intelligenza artificiale hanno già lanciato l’allarme riguardo i rischi che l’umanità corre, e in questo senso ha fatto molto scalpore l’intervento in Aula di un senatore centrista. Che ha letteralmente lasciato a bocca aperta i colleghi. Ecco perché.

Quando prende la parola in Aula il senatore del gruppo di Carlo Calenda, Marco Lombardo, in discussione generale sul ddl di ratifica di un accordo con la Svizzera sui nostri lavoratori frontalieri, a tutti i colleghi in Aula –  120 – il suo non può non sembrare un intervento come gli altri. “Signor Presidente, onorevoli colleghi, oggi siamo qui per discutere un provvedimento di fondamentale importanza per migliaia di lavoratori transfrontalieri e per i territori di confine tra Italia e Svizzera”, è l’incipit di Lombardo, di professione docente. Ma l’intervento è altro: è il debutto al Senato dell’intelligenza artificiale, che ha dato ‘una mano’ al senatore del gruppo di Calenda per il suo intervento.

“E’ stato – dice Lombardo  un intervento interamente scritto, virgole comprese, dall’Intelligenza artificiale”. “Io – rivela – ho aggiunto soltanto le righe finali in cui ho reso noto l’intervento per la stesura del mio discorso di un algoritmo di intelligenza artificiale Chat GPT-4′“.

L’obiettivo di quella che Lombardo, docente universitario di diritto Ue, ma da sempre attento alle nuove tecnologie digitali, ha chiamato “una provocazione” è mettere in guardia dai rischi di interventi esterni all’uomo anche in politica: “Quanti di noi oggi sono in grado di distinguere un testo prodotto dall’intelligenza umana e un flusso di pensieri, prodotto da un algoritmo di intelligenza artificiale?”, ha chiesto in Aula il senatore del gruppo di Azione-Italia Viva.

Nel merito, la procedura per avere in mano il testo poi letto in Aula ha previsto l’invio di istruzioni all’algoritmo sul tema da affrontare – in questo caso i frontalieri italiani che lavorano in Svizzera – con leggi, dossier, precedenti e norme esistenti, che hanno permesso all’intelligenza artificiale di creare il testo finito ora agli atti di Palazzo Madama.

“Mi sembrava giusto che in Senato si aprisse una riflessione, anche la politica deve capire l’impatto che l’Ia può avere, nel bene e nel male. Le opportunità sono enormi, ma bisogna essere consapevoli dei rischi, per esempio delle possibili ingerenze stranieri, delle fake news che si possono veicolare”.

L’errore

E’ un testo perfetto? “C’è un errore – ammette Lombardo – nel passaggio sul tema del telelavoro, che non tiene conto degli ultimi aggiornamenti su questa modalità di prestazione di lavoro, ma era giusto mantenere anche l’inesattezza”. Complimentato da molti colleghi, ma anche attorniato da tanti volti disorientati, Lombardo fa sapere che continuerà a occuparsi del tema, perché “la politica deve essere consapevole di quello che può succedere”.

”Abbiamo decisamente bisogno di più regolamentazione nell’intelligenza artificiale”: così twittava Sam Altman, CEO di OpenAI, società ormai famosa per aver creato ChatGPT.

Chissà se lo riscriverebbe adesso lo stesso tweet, dopo che in meno di una settimana si è visto recapitare una lettera firmata da eminenti personalità del mondo accademico, politico e dell’industria tecnologica che promuove una sospensione di 6 mesi agli sviluppi dell’Intelligenza artificiale e il provvedimento del Garante della privacy italiano che accusa ChatGPT di raccogliere illecitamente i dati degli utenti.

Non c’è da stupirsi: gli avanzamenti così stupefacenti dei nuovi strumenti  hanno alzato il dibattito dell’opinione pubblica non solo sugli sviluppi tecnologici, destinati spesso a una comunità ristretta di nerd, ma sulle conseguenze economiche, sociali e culturali che questi strumenti hanno nella vita pubblica.

Sul tema è intervenuto con forza anche il leader della Lega Salvini, accusando di oscurantismo il Garante.

Il futuro dell’intelligenza artificiale diventa quindi “politico”, con posizioni e opinioni molto differenti fra loro che cercano di imporsi con argomenti, dati, atti istituzionali, campagne di comunicazione e tutto quello che può influenzare la sfera pubblica.

Dietro i presunti allarmismi ci sono spesso interessi economici, mancanza di realismo e ipocrisia. Il Future of Life Institute, promotore della lettera, è un’organizzazione che vive di fondi privati, lavora “per ridurre i rischi catastrofici ed esistenziali globali che l’umanità deve affrontare”.

Non avrebbe quindi tutto l’interesse a esaltare toni apocalittici e fantascientifici? Inoltre, non è forse ipocrita la firma di Elon Musk che chiede più etica, quando solamente pochi mesi fa ha licenziato brutalmente, attraverso una email asettica, più della metà dei dipendenti di Twitter? Non è forse da ingenui pensare che in soli 6 mesi i governi possano in qualche modo sviluppare un contesto normativo e regolatorio capace di limitare i rischi e sviluppare le potenzialità delle nuove tecnologie?

Evidentemente anche i più grandi scienziati firmatari della lettera non conoscono minimamente i tempi della politica. Chi crede che Stati Uniti, Cina e Unione Europea possano concordare le regole per la governance dell’IA in un breve lasso di tempo, vive fuori dal mondo. Pensare che qualsiasi Stato possa bloccare una tecnologia emergente è una cattiva e dannosa politica dell’innovazione. Il problema della regolamentazione dell’IA è una sfida generazionale. Le soluzioni politiche non nascono nei garage come le startup, ma dopo estenuanti e faticosi confronti pubblici.

Allo stesso modo, le dichiarazioni di Sam Altman, che si finge impaurito dalle potenzialità del suo ChatGPT di arrivare presto all’intelligenza artificiale generale, sembrano un’astuta campagna di marketing ottima per vendere il suo prodotto e alzare la discussione sul tema.

L’arrivo di un’intelligenza artificiale generale, ovvero una macchina dotata di capacità umane di comprensione, di riflessione, di pensiero autonomo è una visione piuttosto di nicchia anche tra gli scienziati dell’IA. Una questione più filosofica che tecnica: cos’è l’intelligenza? Quali sono i suoi confini? Possiamo confrontare le abilità umane con una macchina? Domandarsi se un sistema di apprendimento automatico può “pensare” come un essere umano è come misurare la velocità di un’auto con quella di un corridore: l’auto è sicuramente più veloce, ma non per questo è un miglior corridore. Abbiamo sicuramente bisogno di più teologi, filosofi e linguisti alle conferenze sull’IA.

I rischi e i danni non hanno mai riguardato un’intelligenza artificiale troppo potente, ma riguardano:

la concentrazione del potere nelle mani di poche persone,

la riproduzione di sistemi di oppressione e pieni di pregiudizi,

l’uso di armi autonome come i droni, il cambiamento del mondo del lavoro,

il danno all’ecosistema dell’informazione e

lo sfruttamento dell’ecosistema naturale (attraverso l’uso intensivo delle risorse energetiche).

Dovremmo riconoscere che le sfide lanciate dall’IA sono di natura politica. Gli algoritmi che determinano l’accesso alle case popolari, al credito, alle assicurazioni o al lavoro avranno implicazioni reali per la giustizia sociale.

E le regole codificate nei servizi di intelligenza artificiale allargheranno o ridurranno la nostra libertà. Il fatto che sistemi di IA non umani, magari con volti e voci, saranno presto in grado di partecipare al dibattito politico in modo sofisticato è probabilmente più importante per il futuro della democrazia rispetto al fatto che non “pensare” come gli umani. Entreremo in una “realtà artificiale” dove il dubbio prevale sulla certezza?

Democrazia, giustizia, libertà: quando si parla di nuove tecnologie, si parla quindi di politica, che ce ne rendiamo conto o meno. In realtà lo stiamo già facendo, ma in ritardo, quando, attraverso dibattiti ancora irrisolti, cerchiamo di capire gli effetti dei social media sulla psiche umana, sulla polarizzazione della società, sulla manipolazione della sfera pubblica.

Paola Severino, Vice presidente Luiss, professoressa diritto penale, ex ministro della Giustizia è precisa: ‘IA, rispobere alle sfide con regole adeguate ed efficaci’

Circa Redazione

Riprova

Regione Puglia e il ‘rimpasto’  della  giunta Emiliano

Alla Regione Puglia proseguono le dimissioni dei membri della giunta.  Ad annunciare il passo indietro, …

WP2Social Auto Publish Powered By : XYZScripts.com