Abbiamo chiesto a Giuseppe Gargano, Segretario Generale UILCA Sicilia, una riflessione sull’intelligenza artificiale.

Il Segretario si è reso disponibile ed ha commentato: “Negli ultimi tempi si fa un gran parlare dell’intelligenza artificiale, decantando le grandi opportunità che essa riserverebbe in ogni ambito ma anche evidenziando alcuni rischi che potrebbe provocare. Abbiamo avuto – come UILCA Sicilia – l’idea di intervistarla direttamente, come fosse una persona, con chiarezza ed in modo leale, in perfetto stile UILCA UIL, ponendole alcune domande, non soltanto relative ai settori da noi seguiti e rappresentati, domande alle quali l’IA ha risposto senza remore, in modo aperto ed esaustivo. Abbiamo il piacere di condividere con UILCA Sicilia News i relativi esiti.”
PARTE II – tre domande
UILCA Sicilia. Quali sono i rischi dell’intelligenza artificiale applicata al settore bancario?
- Ottima domanda. L’applicazione dell’intelligenza artificiale (IA) al settore bancario porta enormi opportunità, ma anche diversi rischi, tra cui:
- Bias e discriminazione: Gli algoritmi possono apprendere e amplificare i pregiudizi presenti nei dati storici, portando a decisioni ingiuste, ad esempio nella concessione di prestiti o nello scoring creditizio.
- Cybersecurity: I sistemi IA possono essere vulnerabili ad attacchi sofisticati (come l’adversarial machine learning), mettendo a rischio dati sensibili e patrimoni finanziari.
- Opacità (“black box”): Molti modelli IA (soprattutto quelli di deep learning) sono difficili da interpretare. Questo può rendere complicato spiegare ai clienti o ai regolatori perché è stata presa una certa decisione.
- Compliance e regolamentazione: L’uso dell’IA deve rispettare normative stringenti (es. GDPR in Europa, regolamenti bancari locali). Non conformarsi può causare multe pesanti e danni reputazionali.
- Errori operativi: Un modello mal addestrato o aggiornato su dati sbagliati può causare errori nei sistemi di pagamento, frodi non rilevate, o rifiuto ingiustificato di operazioni.
- Concentrazione del rischio: Se molte banche adottano sistemi IA simili (magari sviluppati da pochi fornitori), si crea un rischio sistemico: un singolo bug o vulnerabilità potrebbe impattare l’intero settore.
- Dipendenza tecnologica: Un affidamento eccessivo all’automazione può ridurre le capacità decisionali umane e rendere più difficile intervenire rapidamente in caso di crisi.
- Frodi automatizzate: Così come le banche usano l’IA, anche i criminali possono impiegarla per sofisticare attacchi fraudolenti (phishing avanzato, social engineering, ecc.).
UILCA Sicilia. Quali sono i rischi dell’intelligenza artificiale applicata al settore assicurativo?
Ottima domanda. L’applicazione dell’intelligenza artificiale (IA) al settore assicurativo porta tante opportunità (come automazione, valutazione più rapida dei rischi, personalizzazione dei prodotti), ma comporta anche diversi rischi. Ti elenco i principali:
- Bias e discriminazione: Se i dati su cui si allena l’IA sono distorti o incompleti, gli algoritmi possono generare decisioni discriminatorie (per esempio, premi assicurativi più alti per determinate categorie di persone senza una reale giustificazione).
- Mancanza di trasparenza: Gli algoritmi complessi, soprattutto quelli di machine learning, possono essere delle “scatole nere” difficili da interpretare. Questo può rendere poco chiaro il motivo per cui, ad esempio, una richiesta di assicurazione viene accettata o rifiutata.
- Problemi di privacy e protezione dei dati: L’IA utilizza enormi quantità di dati personali sensibili. Se non gestiti correttamente, possono esserci violazioni della privacy o usi impropri dei dati.
- Rischio di errori automatizzati: Se un algoritmo sbaglia nella valutazione di un sinistro o nella gestione di una polizza, il danno può essere su larga scala e difficile da correggere rapidamente.
- Cybersecurity: Sistemi basati su IA sono anche bersagli di attacchi informatici. Un hackeraggio potrebbe manipolare decisioni automatizzate o rubare informazioni sensibili.
- Esclusione dal mercato: L’uso eccessivo di IA predittiva potrebbe portare alcune persone a non poter più accedere a prodotti assicurativi (ad esempio, se vengono valutate come “troppo rischiose” in base ai dati predittivi).
- Responsabilità legale: Se una decisione sbagliata viene presa da un algoritmo, a chi spetta la responsabilità? Alla compagnia assicurativa, al fornitore dell’algoritmo, o a qualcun altro? La legislazione su questi temi è ancora in evoluzione.
UILCA Sicilia. Quali sono i rischi dell’intelligenza artificiale applicata al settore esattoriale?
- Bella domanda. L’applicazione dell’intelligenza artificiale (IA) al settore esattoriale — quindi alla riscossione dei tributi, multe, crediti, ecc. — porta sicuramente dei vantaggi (come efficienza, automazione, predizione dei comportamenti di pagamento), ma anche parecchi rischi importanti. Ti elenco i principali:
- Errori e ingiustizie automatizzate: Se l’IA commette un errore (ad esempio classificando erroneamente un contribuente come “inaffidabile” o “evasore”), può generare azioni esattoriali ingiuste come pignoramenti, fermi amministrativi o richieste di pagamento non dovute.
- Bias nei modelli predittivi: I dati storici su cui si addestrano gli algoritmi possono contenere pregiudizi (bias), ad esempio discriminando persone in base alla zona di residenza, al reddito o a caratteristiche demografiche. Questo può portare a trattamenti discriminatori.
- Mancanza di trasparenza (black box): Spesso i sistemi di IA sono opachi: non è chiaro come e perché prendono certe decisioni. Questo è particolarmente grave in un settore delicato come l’esattoria, dove i cittadini devono poter contestare e capire i provvedimenti.
- Violazione della privacy: L’IA, per essere efficace, richiede grandi quantità di dati personali e finanziari. Questo espone a rischi di uso improprio, perdita di dati o violazioni della normativa GDPR.
- Eccessiva automazione senza controllo umano: Un uso massiccio dell’automazione potrebbe ridurre l’intervento umano in decisioni che invece richiederebbero valutazioni caso per caso, aumentando il rischio di azioni esattoriali sproporzionate.
- Pressione psicologica sui cittadini: Sistemi di IA molto aggressivi nel sollecitare pagamenti potrebbero generare stress, ansia o situazioni di difficoltà indebita, soprattutto verso soggetti economicamente vulnerabili.
- Responsabilità legale poco chiara: Se un’azione scorretta viene eseguita da un sistema automatizzato, può essere difficile stabilire chi ne sia responsabile: l’ente esattoriale? Il fornitore del software? Il programmatore?