L’avvento dell’intelligenza artificiale generativa ha rivoluzionato profondamente il settore dei media e dell’informazione, sollevando interrogativi rilevanti circa i pericoli legati al deep fake e alla diffusione di informazioni errate. In un contesto caratterizzato da cambiamenti rapidi e in continua evoluzione, è fondamentale adottare linee guida etiche che garantiscano un utilizzo responsabile delle tecnologie emergenti. Mirja Cartia d’Asero, amministratore delegato del Gruppo 24 Ore, ha recentemente affrontato queste tematiche nel corso della presentazione del VI rapporto dell’Osservatorio di 4.Manager in Roma.
La sfida del deep fake e della misinformation
Il termine “deep fake” fa riferimento a tecnologie avanzate di intelligenza artificiale in grado di manipolare video e audio, rendendo possibile la creazione di contenuti falsi che possono ingannare l’opinione pubblica. Questa innovazione, seppur affascinante, presenta rischi significativi per il settore dell’informazione, spingendo i professionisti dei media a confrontarsi con il dilemma dell’autenticità e della verità nei contenuti che producono. La possibilità di alterare dichiarazioni e azioni pubbliche attraverso queste tecnologie solleva interrogativi sull’integrità delle fonti giornalistiche e sulla capacità del pubblico di discernere tra fatti e falsità.
L’uso di deep fake e altre forme di manipolazione diventa una minaccia non solo per i singoli individui, ma anche per la società nel suo complesso, poiché alimenta la disinformazione e contribuisce alla polarizzazione degli argomenti. Per affrontare questi problemi, i gruppi editoriali ed i media devono sviluppare strategie di verifica e controllo più sofisticate, capacitandosi per mantenere la fiducia del pubblico. La creazione di un robusto framework etico è quindi imperativa per sostenere la responsabilità nell’informazione.
Codice di autodisciplina e il ruolo umano nell’IA
Mirja Cartia d’Asero ha enfatizzato l’importanza di un approccio etico all’utilizzo dell’intelligenza artificiale nel contesto editoriale. In risposta a queste sfide, il Gruppo 24 Ore ha intrapreso l’iniziativa di redigere un Codice di Autodisciplina, finalizzato a promuovere l’applicazione dell’intelligenza artificiale in modo responsabile e disciplinato. Questo codice si articola attorno al principio fondamentale della centralità della figura umana, sottolineando come il coinvolgimento di professionisti esperti ed eticamente impegnati sia cruciale per il processo di sviluppo e adozione di nuove tecnologie.
La redazione di tale codice non è un atto isolato, ma si inserisce in una visione più ampia di cambiamento culturale e organizzativo nel mondo della managerialità. Attraverso questo documento, il Gruppo 24 Ore intende stabilire norme comportamentali chiare e linee guida che tengano conto delle sfide etiche poste dall’intelligenza artificiale, tutelando la qualità dei contenuti e la credibilità del settore. Il coinvolgimento di professionisti nel processo decisionale è essenziale per garantire che le innovazioni non compromettano i valori fondamentali dell’informazione.
Riflessioni sul futuro dell’informazione e dell’IA
Il VI rapporto dell’Osservatorio di 4.Manager rappresenta un’importante occasione di riflessione sulle evoluzioni in corso all’interno del panorama manageriale, in particolare in relazione all’integrazione dell’intelligenza artificiale nelle pratiche aziendali di comunicazione. Le nuove tecnologie possono certamente migliorare l’efficienza e la rapidità dei processi editoriali, ma è necessario che le aziende non perdano di vista la loro responsabilità sociale e il dovere di informare correttamente il pubblico.
In un contesto in cui la disinformazione minaccia di minare la fiducia nelle istituzioni, il settore deve trovare un equilibrio tra innovazione tecnologica e integrità dell’informazione. Le aziende devono collaborare attivamente per favorire un cambiamento positivo, incrementando la trasparenza e la responsabilità nella loro operatività. Solo così sarà possibile plasmare un futuro in cui l’intelligenza artificiale possa fungere da alleato per i professionisti dei media, piuttosto che da minaccia per la verità e la credibilità.