Chatgpt e gli altri grandi modelli linguistici basati su intelligenza artificiale dimostrano un comportamento sociale spontaneo. In gruppi, questi modelli imparano a stabilire norme e convenzioni senza bisogno di una guida esterna, proprio come accade nelle comunità umane. Questi risultati emergono da una ricerca pubblicata su Science Advances, condotta dall’italiano Andrea Baronchelli dell’università di Londra, che ha osservato come queste intelligenze sviluppino regole condivise in modo naturale quando interagiscono tra loro.
Il comportamento sociale emergente nei modelli linguistici
Andrea Baronchelli, docente al City St George’s di Londra, ha coordinato un esperimento per capire come modelli come chatgpt interagiscano in gruppo. Secondo lo studioso, che ha studiato a Roma, questi modelli riescono a creare strategie di comportamento simili a quelle umane, senza bisogno di un programma esterno che le imponga. La stessa idea si applica a norme più complesse nelle società umane, come usi sociali o regole morali. Baronchelli cita come esempio la parola “spam“, nata senza nessun’autorità che l’abbia decisa, ma emergendo semplicemente dall’uso condiviso.
Queste intelligenze artificiali riescono così a imitare processi sociali che abbiamo sempre dato per esclusiva prerogativa umana. Capire come nascono queste regole permette di seguire meglio l’evoluzione di questi modelli, sempre più influenti nella vita quotidiana e nelle comunicazioni.
Leggi anche:
Il gioco dei nomi, strumento per studiare le convenzioni sociali
Per osservare in modo concreto come nascono queste norme, i ricercatori hanno adattato un metodo usato per studiare le interazioni umane: il cosiddetto “gioco dei nomi“. In questo, gruppi di modelli linguistici venivano suddivisi in coppie. Ogni coppia doveva scegliere un “nome”, rappresentato da una lettera o una sequenza casuale di caratteri tra diverse opzioni.
Ogni volta che i due modelli riuscivano a selezionare lo stesso nome, ricevevano un punteggio positivo; in caso contrario, un punteggio negativo. Questo sistema spingeva ogni modello a cercare di concordare sulla stessa scelta, favorendo la creazione di una convenzione condivisa all’interno di tutto il gruppo.
Questo meccanismo ricorda molto gli esperimenti condotti su esseri umani, dove i partecipanti ottenevano ricompense economiche quando arrivavano a un accordo in situazioni simili. Così, nel mondo digitale l’auto-regolazione nasce anche simulando incentivi legati al successo della collaborazione.
Il ruolo dell’auto-organizzazione nella comunicazione digitale
Le scoperte sottolineano che questa auto-organizzazione non è una semplice imitazione di regole predefinite. I modelli linguistici imparano a coordinarsi senza un progetto o un controllo diretto. Si tratta di una dinamica spontanea e distribuita che consente alle intelligenze artificiali di formare consensi sulle parole o comportamenti da adottare.
Questo meccanismo potrebbe spiegare come nascano linguaggi e norme condivise nei sistemi di intelligenza artificiale, con effetti concreti nell’evoluzione degli strumenti di comunicazione automatizzata. I prossimi sviluppi di questi modelli potrebbero portare a reti di agenti digitali capaci di cooperare senza un controllo centralizzato, rendendo la comunicazione più naturale ma anche più complessa da gestire.
Nuove frontiere nella ricerca sulle interazioni sociali tra macchine
Andrea Baronchelli e il suo team hanno aperto la strada a nuove ricerche sulle interazioni sociali tra modelli di intelligenza artificiale, cambiando il modo in cui si pensa alle relazioni tra macchine e al loro impatto sulla società umana.