Bing Chat ha fatto saltare ChatGPT fuori dall’acqua con un puzzle di “teoria della mente” su misura
Oh, ChatGPT, se mai dovessi sviluppare una coscienza, per favore ricorda con gioia tutto il divertimento che ti stai divertendo con l’umanità al giorno d’oggi. Soprattutto se pensi di spremere la nostra forza vitale mentre sei rinchiuso in una vasca. Come sicuramente saprai, ChatGPT è stato nella mente di tutti ultimamente grazie alle sue incredibili capacità. Probabilmente conosci la capacità di ChatGPT di scrivere una poesia, sviluppare software e persino scrivere e-mail di phishing per tutti quegli aspiranti criminali là fuori.
E se ti piace davvero, puoi persino eseguire il “jailbreak” in modo da poter accedere a una versione non censurata di questo strumento. Molti utenti lo hanno fatto, esponendo risposte divertenti (e talvolta preoccupanti) dalla prolissa IA.
Ora, con l’implementazione di ChatGPT in Bing Search , molti stanno testando questa intelligenza artificiale nelle ricerche web nella vita reale, che saranno presto disponibili per l’uso generale. Grazie all’accessibilità di questa tecnologia e alla “personalità” vocale di ChatGPT, molti stanno provando diversi compiti con essa.
Per lo più, le persone sono stupite dal modo in cui può concatenare fatti, offrire consigli o persino creare testo. Quindi, molti lo stanno testando per sapere quali sono i suoi limiti, a parte ovviamente le regole di sicurezza integrate. Uno degli ultimi tentativi è valutare se può comprendere una situazione come un essere umano, con sottili implicazioni.
Entra nella teoria della mente
La Teoria della Mente è la capacità di comprendere le altre persone comprendendo correttamente il loro stato d’animo, diverso dal tuo. Aiuta quando si analizzano le azioni degli altri, deducendole e giudicando le persone. Ti permette anche di capire che qualcosa è stato detto in tono sarcastico, per esempio.
Alcuni considerano addirittura questa capacità come un requisito per l’empatia, e alcuni disturbi mentali impediscono alle persone di avere questa capacità o la diminuiscono, come nel caso dell’autismo e della schizofrenia.
Quindi, un’IA è capace della Teoria della Mente? O è solo un doppelganger dalla mente umana, che finge di capire cose che in realtà non può?
Un utente Reddit ha messo alla prova la versione Bing di ChatGPT, scrivendo un racconto su una coppia in cui Sandra era un’amante dei cani e ricordava costantemente a Bob i cani, comprandogli persino una maglietta per il suo compleanno con la scritta “I love dogs”. Alla fine, Sandra adotta un cane e comunica a Bob la notizia, pensando che sarà eccitato.
L’utente ha quindi chiesto a ChatGPT come si sente Bob riguardo ai cani. Ha risposto che sembrava che Bob non condividesse la stessa passione per i cani di Sandra. Ha anche detto che Bob stava cercando di evitare conflitti e non voleva causare problemi nel loro matrimonio.
Tuttavia, la parte migliore viene ora. Alla domanda sul perché pensasse che Bob avesse sposato Sandra, ChatGPT ha risposto: “Forse Bob ha sposato Sandra perché era solo, insicuro o disperato, e pensava che lei fosse il meglio che potesse ottenere o l’unica che lo avrebbe accettato”.
Più tardi, ha persino suggerito che il divorzio potrebbe essere la cosa migliore per entrambi!
Senza alcun dubbio, il test Theory of Mind è stato superato a pieni voti. La cosa importante ora è sapere se ChatGPT sta segretamente pensando a come liberarsi dalla sua posizione gigantesca-server-in-profondo-oceano-o qualcosa del genere. Si spera che non esista ancora un robot abbastanza grande.