Marionna Wegenstein: «Fiducia nella crisi: quando l'IA diventa uno stress test»
Le crisi sono all'ordine del giorno nel settore finanziario e sono sempre più frequenti. Che si tratti di scandali legati al riciclaggio di denaro, violazioni normative, guasti informatici imprevisti o attacchi informatici, in poche ore la fiducia dei clienti, degli investitori e delle autorità di vigilanza può vacillare.
Per le banche e i gestori patrimoniali, per i quali la credibilità è il capitale più importante, una comunicazione di crisi professionale è quindi fondamentale per la sopravvivenza.
Ma con l'avvento dell'intelligenza artificiale (IA) le regole del gioco stanno cambiando. L'IA non è solo uno strumento, ma anche un rischio: può diffondere informazioni false alla velocità della luce e, allo stesso tempo, aiutare a organizzare contromisure più efficienti e precise.
Nuove minacce dall'IA
Quello che prima erano voci sul mercato finanziario, oggi sono deepfake sui social media. Un video manipolato di un amministratore delegato che annuncia dimissioni o perdite miliardarie può influenzare interi mercati in pochi secondi. Anche i documenti falsi, ad esempio relativi a bilanci o rating ESG, sono più facili da produrre grazie all'IA generativa.
A ciò si aggiungono i rischi interni: chatbot automatizzati che forniscono risposte contraddittorie in situazioni di crisi o sistemi scarsamente protetti che diventano bersaglio di attacchi hacker basati sull'IA.
Opportunità per i team di comunicazione
Per quanto possa sembrare minacciosa, l'IA offre anche delle opportunità. Se utilizzata correttamente, consente il monitoraggio delle crisi in tempo reale. Le analisi dei social media con strumenti di IA aiutano a individuare e classificare tempestivamente le voci. La rapida convalida dei fatti è indispensabile, perché in un contesto pubblico inondato di notizie false, la trasparenza diventa la valuta più preziosa.
Comunque, un fatto rimane incontrovertibile: alla fine, la credibilità nasce dalle persone. Gli stakeholder vogliono sapere che qualcuno gestisce i messaggi con responsabilità ed empatia. L'intelligenza artificiale può svolgere al massimo un ruolo secondario.
Misure pratiche
- Contrassegnare chiaramente i canali di comunicazione ufficiali come «fonti affidabili».
- Effettuare regolarmente simulazioni di crisi, inclusi scenari con deepfake o ondate di disinformazione.
- Creare e rendere note regole chiare per l'uso dell'IA nella comunicazione.
- Far sempre verificare i messaggi finali da esperti di comunicazione.
Il fattore decisivo
La velocità con cui l'IA genera informazioni false richiede un nuovo approccio da parte delle aziende: non aspettare, ma agire con preparazione. La questione non è tanto se la disinformazione si verificherà, ma quando e con quale rapidità si reagirà.
Per proteggere la reputazione, non c'è quindi alternativa a una strategia di comunicazione proattiva, onesta e resiliente. L'IA può essere uno strumento utile, ma l'ultima parola deve spettare all'uomo, uno che sia credibile e che mantenga la calma nei momenti decisivi.
Marionna Wegenstein è consulente di comunicazione a Zurigo. La sua azienda, Wegenstein Communication, assiste principalmente clienti del settore finanziario e aziende familiari. È cofondatrice del Family Governance Kompetenzzentrum, una rete di esperte che si impegnano per la gestione di successo delle aziende familiari, ed è membro di Women for the Board. Ha più di 25 anni di esperienza nel settore della comunicazione finanziaria, da ultimo come responsabile PR & Communication alla banca privata svizzera Lombard Odier.


