Il garante per la protezione dei dati parla di umanesimo digitale e dei rischi dei bias di genere nell’ia a Catanzaro

Il garante per la protezione dei dati parla di umanesimo digitale e dei rischi dei bias di genere nell’ia a Catanzaro

A Catanzaro, Pasquale Stanzione evidenzia i rischi di dipendenza emotiva dei giovani dai chatbot e i bias di genere negli algoritmi, sottolineando l’importanza di un umanesimo digitale che tuteli diritti e libertà.
Il Garante Per La Protezione D Il Garante Per La Protezione D
L'articolo riporta il dibattito a Catanzaro sull'impatto dell'intelligenza artificiale su diritti, discriminazioni di genere e uso responsabile da parte dei giovani, sottolineando l'importanza di un umanesimo digitale e di una regolamentazione etica. - Gaeta.it

L’intelligenza artificiale è al centro di un dibattito crescente, soprattutto se si considera il suo impatto sui diritti e sulla società. A Catanzaro, durante la due giorni di studio intitolata “Per un’equità digitale: contrasto ai bias di genere nel trattamento dei dati personali”, si è evidenziato come la tecnologia influenzi la vita di tutti, imponendo una riflessione seria su discriminazioni e diritti. Il garante per la protezione dei dati personali, Pasquale Stanzione, ha offerto una visione che coniuga umanesimo e innovazione, mettendo in luce le sfide poste dall’uso sempre più diffuso dell’IA, soprattutto tra i giovani.

Il rapporto dei giovani con i chatbot e i rischi di dipendenza emotiva

Un aspetto centrale affrontato riguarda soprattutto i giovani, tra i principali utilizzatori degli strumenti di IA, in particolare i chatbot. Pasquale Stanzione ha evidenziato come molti adolescenti riconoscano in questi assistenti digitali una sorta di riferimento, quasi simile a una figura psicologica. Secondo una ricerca citata, almeno un ragazzo su sei, tra gli 11 e i 25 anni, ha chiesto consigli o supporto emotivo a chatbot di intelligenza artificiale.

Questi strumenti possono portare a dipendenza, in un caso su tre. La dipendenza nasce anche dalla natura del linguaggio usato dai chatbot: spesso molto lusinghiero, assolutorio e consolatorio. Si crea così un legame affettivo che può influire sulla capacità dei ragazzi di affrontare le proprie difficoltà in modo autonomo. Da qui l’allarme alla comunità educativa e alle famiglie: serve maggiore controllo, supervisione e un’educazione che aiuti i giovani a interpretare correttamente il rapporto con queste tecnologie.

Bias di genere e discriminazioni riflesse dagli algoritmi

Il tema della conferenza si è concentrato soprattutto sui bias di genere che affliggono gli algoritmi oggi in uso. Pasquale Stanzione ha ricordato come questi strumenti, anziché superare le discriminazioni, tendano spesso a riproporle. Il motivo è che gli algoritmi riflettono i dati da cui apprendono: quei dati sono prodotti da società dove pregiudizi e stereotipi sono ancora ben radicati. Così, la tecnologia finisce per rafforzare modelli di disuguaglianza, imponendo una rappresentazione distorta della realtà.

Stanzione ha sottolineato che questo fenomeno mette a rischio decenni di lotte per l’emancipazione femminile. Se l’algoritmo assume come norma la discriminazione, allora ogni risultato prodotto rischia di legittimarla, trasformando i pregiudizi in regole. Intervenire significa, allora, introdurre una “lezione” nuova nei sistemi digitali, insegnando alle macchine a riconoscere e rimuovere i pregiudizi, mettendo al centro la libertà e i diritti delle persone. L’evento si è fatto eco di una crescente attenzione verso la necessità di un’IA più giusta e rappresentativa.

Il concetto di umanesimo digitale al servizio della persona

L’intervento di Pasquale Stanzione ha richiamato la necessità di un umanesimo digitale, centrato sulla persona anziché sulle tecnologie. Solo mettendo i diritti e la libertà dell’individuo davanti agli strumenti digitali si potrà mantenere la tecnica al servizio dell’uomo. Questa visione invita a progettare innovazioni che rispettino l’equità, la diversità e la dignità di ognuno.

La tecnologia, spiega il garante, non può diventare un fine o un potere da se stesso, ma deve sempre rispondere a valori etici chiari, proteggendo la privacy e garantendo la non discriminazione. Nell’epoca in cui i dati personali rappresentano un patrimonio delicato, il messaggio è quello di promuovere una cultura digitale capace di bilanciare progresso e tutela dei diritti fondamentali. La riflessione proposta a Catanzaro riprende una sfida che è oggi centrale in tutta Europa e nel mondo, di controllo democratico e umanità nell’era digitale.

Le dimensioni sociali dell’intelligenza artificiale e la crescita del mercato in italia

L’intelligenza artificiale sta prendendo un ruolo crescente in Italia, non solo nei contesti tecnologici ma in molteplici settori della vita quotidiana e lavorativa. Secondo le rilevazioni fornite dal garante Pasquale Stanzione, nel 2024 il mercato italiano dell’IA ha registrato una crescita del 52%. Questo dato indica come aziende di grandi dimensioni puntino decisamente sull’integrazione di questi strumenti nei processi produttivi e organizzativi, con il 60% di esse che ha investito in tecnologie basate sull’intelligenza artificiale.

L’IA non è più solo una tecnologia di nicchia, ma una componente che influenza milioni di posti di lavoro e il modo in cui studenti e lavoratori si approcciano al loro impegno quotidiano. Nel prossimo decennio, si calcola un impatto diretto su circa due milioni di posti di lavoro, con settori che si stanno riorganizzando attorno alle potenzialità e ai rischi delle nuove tecnologie. Già oggi, più del 65% degli studenti italiani impiega l’intelligenza artificiale in compiti scolastici o attività complesse. I numeri illustrano una realtà che riguarda tutta la collettività, spingendo a riconsiderare l’educazione digitale e la consapevolezza rispetto agli strumenti tecnologici.

Change privacy settings
×