Come chatgpt e altri modelli di intelligenza artificiale creano regole sociali senza intervento umano

Come chatgpt e altri modelli di intelligenza artificiale creano regole sociali senza intervento umano

Chatgpt e altri modelli di intelligenza artificiale sviluppano spontaneamente norme sociali e convenzioni condivise, come dimostrato dalla ricerca di Andrea Baronchelli dell’università di Londra pubblicata su Science Advances.
Come Chatgpt E Altri Modelli D Come Chatgpt E Altri Modelli D
La ricerca di Andrea Baronchelli mostra che modelli linguistici come ChatGPT sviluppano spontaneamente norme sociali condivise, imitando comportamenti umani senza un controllo esterno. - Gaeta.it

Chatgpt e gli altri grandi modelli linguistici basati su intelligenza artificiale dimostrano un comportamento sociale spontaneo. In gruppi, questi modelli imparano a stabilire norme e convenzioni senza bisogno di una guida esterna, proprio come accade nelle comunità umane. Questi risultati emergono da una ricerca pubblicata su Science Advances, condotta dall’italiano Andrea Baronchelli dell’università di Londra, che ha osservato come queste intelligenze sviluppino regole condivise in modo naturale quando interagiscono tra loro.

Il comportamento sociale emergente nei modelli linguistici

Andrea Baronchelli, docente al City St George’s di Londra, ha coordinato un esperimento per capire come modelli come chatgpt interagiscano in gruppo. Secondo lo studioso, che ha studiato a Roma, questi modelli riescono a creare strategie di comportamento simili a quelle umane, senza bisogno di un programma esterno che le imponga. La stessa idea si applica a norme più complesse nelle società umane, come usi sociali o regole morali. Baronchelli cita come esempio la parola “spam“, nata senza nessun’autorità che l’abbia decisa, ma emergendo semplicemente dall’uso condiviso.

Queste intelligenze artificiali riescono così a imitare processi sociali che abbiamo sempre dato per esclusiva prerogativa umana. Capire come nascono queste regole permette di seguire meglio l’evoluzione di questi modelli, sempre più influenti nella vita quotidiana e nelle comunicazioni.

Il gioco dei nomi, strumento per studiare le convenzioni sociali

Per osservare in modo concreto come nascono queste norme, i ricercatori hanno adattato un metodo usato per studiare le interazioni umane: il cosiddetto “gioco dei nomi“. In questo, gruppi di modelli linguistici venivano suddivisi in coppie. Ogni coppia doveva scegliere un “nome”, rappresentato da una lettera o una sequenza casuale di caratteri tra diverse opzioni.

Ogni volta che i due modelli riuscivano a selezionare lo stesso nome, ricevevano un punteggio positivo; in caso contrario, un punteggio negativo. Questo sistema spingeva ogni modello a cercare di concordare sulla stessa scelta, favorendo la creazione di una convenzione condivisa all’interno di tutto il gruppo.

Questo meccanismo ricorda molto gli esperimenti condotti su esseri umani, dove i partecipanti ottenevano ricompense economiche quando arrivavano a un accordo in situazioni simili. Così, nel mondo digitale l’auto-regolazione nasce anche simulando incentivi legati al successo della collaborazione.

Il ruolo dell’auto-organizzazione nella comunicazione digitale

Le scoperte sottolineano che questa auto-organizzazione non è una semplice imitazione di regole predefinite. I modelli linguistici imparano a coordinarsi senza un progetto o un controllo diretto. Si tratta di una dinamica spontanea e distribuita che consente alle intelligenze artificiali di formare consensi sulle parole o comportamenti da adottare.

Questo meccanismo potrebbe spiegare come nascano linguaggi e norme condivise nei sistemi di intelligenza artificiale, con effetti concreti nell’evoluzione degli strumenti di comunicazione automatizzata. I prossimi sviluppi di questi modelli potrebbero portare a reti di agenti digitali capaci di cooperare senza un controllo centralizzato, rendendo la comunicazione più naturale ma anche più complessa da gestire.

Nuove frontiere nella ricerca sulle interazioni sociali tra macchine

Andrea Baronchelli e il suo team hanno aperto la strada a nuove ricerche sulle interazioni sociali tra modelli di intelligenza artificiale, cambiando il modo in cui si pensa alle relazioni tra macchine e al loro impatto sulla società umana.

Change privacy settings
×