Anthropic ha negato le voci su presunti ban di account legittimi dopo un post virale su X che sosteneva che il creatore di Claude aveva bannato un utente. Claude Code è uno degli agenti di codifica AI più capaci e più utilizzati al momento, in confronto a strumenti come Gemini CLI o Codex. La sua popolarità comporta anche trolling e condivisione di screenshot falsi come “prova” di banni.
La risposta di Anthropic
Nel post virale su X, l’utente ha condiviso uno screenshot che afferma che Claude ha bannato permanentemente l’account e ha condiviso dettagli con le autorità locali. Comunque, Anthropic sostiene che il messaggio non corrisponde a nulla di quanto Claude mostra realmente agli utenti. In una dichiarazione condivisa, Anthropic ha affermato che l’immagine non è reale e che la società non utilizza quel linguaggio o visualizza quel tipo di messaggio.
Regole e restrizioni
La società ha aggiunto che lo screenshot sembra essere un falso che “circola ogni pochi mesi” e che è impreciso. Ciò non significa che gli utenti di Claude non possano essere soggetti a restrizioni. Anthropic, come altre società di intelligenza artificiale, applica regole rigide per prevenire l’uso improprio dei sistemi di intelligenza artificiale. Gli account possono subire limitazioni se ripetutamente violano le politiche, compresi tentativi di utilizzare agenti di intelligenza artificiale per attività illecite, come richieste relative a armi.Per mantenere la sicurezza e prevenire abusi, è fondamentale che le società di intelligenza artificiale come Anthropic continui a monitorare e aggiornare le loro politiche e sistemi di sicurezza per garantire un uso responsabile della tecnologia.


