AI model
Imitazione Umana 9.2V
6
6
Review
~25

Un LLM prevede la parola successiva in base alla distribuzione di probabilità. Sia 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ​ ,w 2 ​ ,…,w N ​ ) la probabilità di una sequenza di parole. La perplessità è definita come: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ​ ,w 2 ​ ,…,w N ​ ) − N 1 ​ Oppure, usando la regola della catena di probabilità: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N ​ P(w i ​ ∣w 1 ​ ,…,w i−1 ​ ) 1 ​ ​ I rilevatori cercano bassa perplessità (alta probabilità). L'istruzione del prompt "Non scegliere il token successivo statisticamente più probabile" costringe il modello a selezionare token da posizioni inferiori nella distribuzione di probabilità (ad esempio, la 3ª o 4ª parola più probabile anziché la 1ª), gonfiando artificialmente il valore di 𝑃 𝑃 PP per corrispondere ai livelli umani.

Today
Imitazione Umana 9.2V
Imitazione Umana 9.2V

risultato che aggira gli algoritmi di rilevamento AI (come GPTZero, Originality.ai o Turnitin)

6:17 AM