Sabato, tecnico l’imprenditore Siqi Chen rilasciato un plug-in open supply per l’assistente AI Claude Code di Anthropic che istruisce il modello AI a smettere di scrivere come un modello AI.
Chiamato Humanizer, il semplice plug-in di immediate fornisce a Claude un elenco di 24 modelli di lingua e formattazione forniti dagli editori di Wikipedia elencato come omaggi di chatbot. Chen ha pubblicato il plug-in su GitHub, dove a partire da lunedì ha raccolto più di 1.600 stelle.
“È davvero utile che Wikipedia abbia raccolto un elenco dettagliato di ‘segni di scrittura dell’intelligenza artificiale'”, Chen ha scritto su X. “Tanto che puoi semplicemente dire al tuo LLM di … non farlo.”
Il materiale originale è una guida da WikiProject AI Cleanupun gruppo di editori di Wikipedia che dà la caccia advert articoli generati dall’intelligenza artificiale dalla positive del 2023. L’editore francese di Wikipedia Ilyas Lebleu ha fondato il progetto. I volontari hanno taggato oltre 500 articoli per la revisione e, nell’agosto 2025, pubblicato un elenco formale dei modelli che continuavano a vedere.
Lo strumento di Chen è un “cartella delle competenze” per Claude Code, l’assistente di codifica basato su terminale di Anthropic, che prevede un file in formato Markdown che aggiunge un elenco di istruzioni scritte (puoi vedeteli qui) aggiunto al immediate inserito nel modello linguistico di grandi dimensioni che alimenta l’assistente. A differenza di un normale richiesta del sistemaadvert esempio, le informazioni sulle competenze sono formattate in un modo standardizzato che i modelli Claude sono ottimizzati per interpretare con maggiore precisione rispetto a un semplice immediate di sistema. (Le competenze personalizzate richiedono un abbonamento Claude a pagamento con l’esecuzione del codice attivata.)
Ma come per tutti i suggerimenti dell’intelligenza artificiale, i modelli linguistici non sempre seguono perfettamente i file delle abilità, quindi l’Umanizzatore funziona davvero? Nei nostri take a look at limitati, il file delle abilità di Chen ha reso l’output dell’agente AI meno preciso e più casuale, ma potrebbe presentare alcuni inconvenienti: non migliorerà la fattualità e potrebbe danneggiare la capacità di codifica.
In particolare, alcune istruzioni di Humanizer potrebbero portarti fuori strada, a seconda del compito. Advert esempio, l’abilità Umanizzatore embody questa frase: “Abbi opinioni. Non limitarti a riferire i fatti: reagisci advert essi. ‘Non so sinceramente cosa pensare a riguardo’ è più umano che elencare in modo neutrale professional e contro”. Anche se essere imperfetti sembra umano, questo tipo di consiglio probabilmente non ti farebbe alcun favore se utilizzassi Claude per scrivere documentazione tecnica.
Nonostante i suoi inconvenienti, è ironico che uno dei set di regole più consultati sul internet per il rilevamento della scrittura assistita dall’intelligenza artificiale possa aiutare alcune persone a sovvertirla.
Individuazione dei modelli
Allora, che aspetto ha la scrittura AI? La guida di Wikipedia è specifica con molti esempi, ma qui te ne forniremo solo uno per brevità.
Secondo la guida, alcuni chatbot amano esaltare i loro argomenti con frasi come “segnare un momento cruciale” o “è una testimonianza di”. Scrivono come opuscoli turistici, definendo i panorami “mozzafiato” e descrivendo le città come “incastonate in” regioni panoramiche. Inseriscono frasi “-ing” alla positive delle frasi per sembrare analitiche: “simboleggiano l’impegno della regione per l’innovazione”.
Per aggirare queste regole, l’abilità Umanizzatore cube a Claude di sostituire il linguaggio esagerato con fatti semplici e offre questo esempio di trasformazione:
Prima: “L’Istituto di Statistica della Catalogna è stato ufficialmente istituito nel 1989, segnando un momento cruciale nell’evoluzione delle statistiche regionali in Spagna.”
Dopo: “L’Istituto di Statistica della Catalogna è stato fondato nel 1989 per raccogliere e pubblicare statistiche regionali.”
Claude lo leggerà e farà del suo meglio come macchina per la corrispondenza di modelli per creare un output che corrisponda al contesto della conversazione o dell’attività in corso.
Perché il rilevamento della scrittura AI fallisce
Anche con un insieme di regole così sicuro creato dagli editori di Wikipedia, abbiamo scritto in precedenza sul motivo per cui i rilevatori di scrittura AI non funzionano in modo affidabile: non c’è nulla di intrinsecamente unico nella scrittura umana che la differenzi in modo affidabile dalla scrittura LLM.
Uno dei motivi è che, anche se la maggior parte dei modelli linguistici dell’IA tende verso determinati tipi di linguaggio, può anche essere loro richiesto di evitarli, come con l’abilità Umanizzatore. (Anche se a volte è molto difficile, come ha scoperto OpenAI nel suo file lotta durata anni contro il trattino.)












