Anthropic lancia il chatbot AI Claude per rivaleggiare con ChatGPT, afferma che il metodo “IA costituzionale” lo distingue

Anthropic, una start-up fondata da ex membri del team OpenAI, ha introdotto un chatbot AI chiamato Claude, presentandolo come un concorrente del popolarissimo ChatGPT . Simile alla sua controparte OpenAI, Claude è in grado di eseguire varie attività, tra cui ricerche di documenti, riepilogo, scrittura, codifica e risposta a domande su argomenti specifici. Secondo Anthropic, Claude possiede diversi vantaggi, come una ridotta probabilità di generare output dannosi, migliori capacità di conversazione user-friendly ed essere più facile da guidare in una particolare direzione.

Anthropic deve ancora rilasciare i dettagli sui prezzi, ma invita le organizzazioni a richiedere l’accesso a Claude. Un rappresentante di Anthropic ha dichiarato di avere fiducia nella propria infrastruttura per la fornitura di modelli e di anticipare la soddisfazione della domanda dei clienti. Claude è stato in tranquillo beta test con i partner di lancio, tra cui AssemblyAI, DuckDuckGo, Notion, Quora e Robin AI, dalla fine del 2020. Anthropic offre due versioni del chatbot, Claude e un derivato più veloce ed economico, Claude Instant, tramite un’API.

Il chatbot AI di Anthropic, Claude, sta collaborando con importanti aziende come DuckDuckGo, Quora e Notion per fornire servizi innovativi basati sull’intelligenza artificiale. Il nuovo strumento può eseguire varie attività, tra cui la ricerca nei documenti, il riepilogo, la scrittura e la codifica e la risposta a domande su argomenti specifici. Insieme a ChatGPT, Claude alimenta lo strumento DuckAssist lanciato di recente da DuckDuckGo, l’app di chat AI di Quora, Poe e Notion AI, un assistente di scrittura AI integrato con l’area di lavoro Notion. Secondo il CEO di Robin AI, Richard Robinson, Claude è abile nel comprendere il linguaggio, incluso il linguaggio tecnico come i termini legali, ed eccelle nella redazione, sintesi, traduzione e semplificazione di concetti complessi.

Correlati: superare il messaggio di errore “At capacity” di ChatGPT

Mentre resta da vedere come se la caverà Claude a lungo termine, Anthropic afferma che il suo chatbot è meno incline a generare output dannosi. L’azienda ha spiegato che utilizza un approccio incentrato sull’uomo alla modellazione del linguaggio e costruisce modelli basati sulla “struttura profonda” del linguaggio, invece di generare testo basato esclusivamente su schemi e associazioni. Questo approccio, insieme all’enfasi di Anthropic sulla controllabilità, allontana Claude dal generare il tipo di linguaggio tossico o distorto che ha afflitto altri chatbot in passato. Inoltre, Claude è progettato per differire quando gli viene chiesto di argomenti al di fuori delle sue aree di conoscenza, riducendo il rischio di generare informazioni false.

Anthropic ha affermato che Claude, addestrato su pagine web pubbliche fino alla primavera del 2021, è meno incline a produrre un linguaggio sessista, razzista e tossico e può evitare di assistere in attività illegali o non etiche. Tuttavia, ciò che distingue Claude, secondo Anthropic, è l’uso di una tecnica chiamata “IA costituzionale”.

L’idea di “IA costituzionale” mira ad allineare i sistemi di intelligenza artificiale con le intenzioni umane attraverso un approccio basato su principi. Ciò consente all’intelligenza artificiale, incluso ChatGPT, di rispondere alle domande utilizzando una serie di principi guida. Anthropic ha creato Claude utilizzando un elenco di una decina di principi che, una volta combinati, hanno formato una sorta di costituzione per il chatbot AI. Sebbene i principi non siano stati resi pubblici, Anthropic afferma che sono fondati sui concetti di beneficenza, non maleficenza e autonomia.

Anthropic ha utilizzato un sistema di intelligenza artificiale separato per utilizzare i suddetti principi per l’auto-miglioramento, generando risposte a una serie di suggerimenti nel rispetto della costituzione. Dopo aver esplorato le possibili risposte a migliaia di suggerimenti, l’IA ha curato quelle più costituzionalmente coerenti, che Anthropic ha distillato in un unico modello su cui Claude è stato poi addestrato. Mentre Anthropic afferma che Claude offre vantaggi come uscite tossiche ridotte, maggiore controllabilità e conversazione più semplice, la startup riconosce i limiti emersi durante la closed beta. Secondo i rapporti, Claude a volte lotta con la matematica, la programmazione e allucinazioni, fornendo informazioni imprecise, come le istruzioni per la produzione di sostanze nocive.

Nonostante la sua enfasi sulla sicurezza e sull’intelligenza artificiale responsabile, Claude non è immune da limitazioni e rischi. Un suggerimento intelligente può aggirare le funzionalità di sicurezza integrate, che è anche un problema con ChatGPT . Nella beta chiusa, un utente è riuscito a convincere Claude a fornire istruzioni per produrre metanfetamine a casa. Secondo un portavoce di Anthropic, trovare il giusto equilibrio tra utilità e sicurezza è una sfida, poiché i modelli di intelligenza artificiale a volte possono optare per il silenzio per evitare ogni possibilità di avere allucinazioni o dire qualcosa di falso. Sebbene Anthropic abbia compiuto progressi nel ridurre il verificarsi di tali problemi, c’è ancora del lavoro da fare per migliorare le prestazioni di Claude.

Anthropic ha in programma di consentire agli sviluppatori di personalizzare i principi costituzionali di Claude per soddisfare le loro esigenze individuali. L’azienda si concentra anche sull’acquisizione di clienti, con particolare attenzione alle “startup che fanno scommesse tecnologiche audaci” e alle imprese più grandi. “Al momento non stiamo perseguendo un ampio approccio diretto al consumatore”, ha affermato un portavoce di Anthropic.

“Pensiamo che questo focus più ristretto ci aiuterà a fornire un prodotto mirato e di qualità superiore”. Anthropic è sotto pressione da parte degli investitori per recuperare le centinaia di milioni di dollari che sono stati investiti nella sua tecnologia AI. La società ha ricevuto un sostanziale supporto esterno, inclusa una tranche di 580 milioni di dollari da un gruppo di investitori che comprende Caroline Ellison, Sam Bankman-Fried, Center for Emerging Risk Research, Jim McClave, Nishad Singh e Jaan Tallinn.

Anthropic ha ricevuto un recente investimento da Google , con il gigante della tecnologia che ha impegnato 300 milioni di dollari per una quota del 10% nella startup. L’accordo, riportato per la prima volta dal Financial Times, includeva un accordo per Anthropic per l’utilizzo di Google Cloud come “fornitore di cloud preferito”. Le due società collaboreranno anche allo sviluppo di sistemi di calcolo AI. Con questo investimento significativo, Anthropic è pronta ad espandere la sua portata e continuare a sviluppare le sue tecnologie AI.