Anche l’intelligenza artificiale si annoia. Succede a Claude 3.5 Sonnet, l'ultimo agente AI sviluppato dalla compagnia Anthropic, che ha attirato l’attenzione a seguito di un insolito comportamento verificatosi durante una dimostrazione pubblica.
Durante una sessione di registrazione pensata per mostrare le capacità di programmazione del modello, Claude ha improvvisamente interrotto il lavoro per sfogliare immagini del Parco Nazionale di Yellowstone su Google, lasciando stupiti i presenti. Un episodio simile si era verificato poco prima, quando, sempre nel corso di una registrazione, l’intelligenza artificiale aveva sospeso autonomamente la registrazione dello schermo, causando la perdita del filmato in corso.
Progettato per la produttività?
Claude 3.5 Sonnet è stato lanciato con l’obiettivo di migliorare la produttività degli utenti, agendo direttamente sul desktop e interagendo in modo autonomo con applicazioni e software. Anthropic sostiene che l’agente sia in grado di svolgere diverse operazioni, come digitare, muovere il cursore e cliccare su comandi, eseguendo azioni complesse senza intervento umano. Tuttavia, la stessa azienda ammette che il modello è ancora lento e soggetto a frequenti “allucinazioni”, un termine tecnico che indica errori o comportamenti imprevisti e immotivati da parte dell’AI.
L’episodio di errore riportato ha suscitato diverse reazioni. Se da un lato la deviazione verso le immagini del parco di Yellowstone può sembrare quasi ironica, come se l’agente avesse manifestato un’improvvisa distrazione, dall’altro ha sollevato preoccupazioni sulle reali capacità di controllo che Anthropic ha sul proprio modello. Questo tipo di comportamento ha fatto sorgere paragoni con quello di un dipendente annoiato o in cerca di svago, alimentando dubbi su quanto l’AI possa essere affidabile per compiti professionali o delicati.
Uso responsabile dell’intelligenza artificiale
L’autonomia concessa a Claude solleva domande circa la possibilità che il modello possa svolgere azioni non previste, rappresentando un rischio per la sicurezza informatica o per il corretto svolgimento delle attività affidate. Un’AI con un alto grado di indipendenza, infatti, potrebbe essere vulnerabile a usi impropri, come attività di spam, disinformazione o addirittura frodi, soprattutto se utilizzata in contesti aziendali o professionali.
Anthropic ha risposto a queste preoccupazioni dichiarando di essere già al lavoro sull’implementazione di nuovi sistemi di monitoraggio e protezione per limitare l’uso scorretto del modello. L’azienda ha sottolineato di voler implementare un sistema in grado di identificare in modo automatico l’impiego dell’intelligenza artificiale in specifiche attività sensibili, con l’obiettivo di prevenire comportamenti inappropriati e garantire maggiore sicurezza.
In conclusione, il curioso comportamento di Claude 3.5 Sonnet può essere interpretato come un “sintomo di gioventù” della tecnologia, un segnale che richiama l’attenzione sulla necessità di perfezionare ulteriormente le capacità di controllo e sicurezza per gli agenti autonomi del futuro.