Il comportamento dei bot varia a seconda del contesto
I videogiochi utilizzati nello studio sono molto basilari. Nel primo, ‘Gathering’, due giocatori devono raccogliere mele da una pila. Tutti e due hanno l’opzione di eliminare momentaneamente l’avversario con un raggio laser e approfittarne per raccogliere più mele. Nel secondo gioco, ‘Wolfpack’, due giocatori devono dare la caccia a un terzo in un ambiente pieno di ostacoli. A segnare un punteggio non sarà solo il cacciatore che catturerà la preda ma anche l’altro, qualora si trovi vicino a essa al momento della cattura. E’ emerso che le intelligenze artificiali, esattamente come gli esseri umani, modificano il loro comportamento a seconda del contesto, assumendo un approccio più cooperativo o più competitivo sulla base delle contingenze.
Ad esempio, in ‘Gathering’ i due giocatori iniziano a spararsi l’un l’altro solo una volta che il numero di mele da raccogliere diventa scarso. Non solo, quando vengono messe a confronto due intelligenze artificiali con differenti capacità di calcolo, quella più potente inizia a colpire da subito la rivale con il laser anche all’inizio della partita, quando c’è abbondanza di mele. Ciò non significa necessariamente che a un maggiore sviluppo dell’intelligenza artificiale corrisponda una maggiore aggressività. Per un’intelligenza artificiale più potente, l’operazione di identificare la posizione dell’avversario, prendere la mira e sparare appare un’opzione più semplice della collaborazione in virtù della maggiore capacità di calcolo. In ‘Wolfpack’, invece, il calcolatore più sviluppato assumeva un approccio maggiormente cooperativo perché, in questo caso, più potenza significa più possibilità di coordinarsi con l’altro nella caccia.
Quelle vecchie, e sempre valide, leggi della robotica
I risultati dello studio mostrano quindi che la condotta delle intelligenze artificiali varia a seconda delle regole in campo. Se viene richiesto un comportamento aggressivo, come in ‘Gathering’, i bot si regoleranno di conseguenze. Se invece a pagare è la collaborazione, come in ‘Wolfpack’, sceglieranno di lavorare insieme. Per garantire un controllo efficace delle intelligenze artificiali, concludono i ricercatori, sarà fondamentale assicurarsi di averli istruiti con le regole giuste. “Grazie a questa ricerca”, si legge nello studio, “potremmo essere in grado di capire meglio e controllare complessi sistemi multi-agente come l’economia, il traffico o la salute ecologica del nostro pianeta, che dipendono tutti da una cooperazione costante”. Le vecchie leggi della robotica di Asimov sono destinate presto a tornare d’attualità.(AGI)