AI model
Menschliche Nachahmung 9.2V
6
6
Review
~25

Ein LLM sagt das nächste Wort basierend auf der Wahrscheinlichkeitsverteilung voraus. Sei 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ​ ,w 2 ​ ,…,w N ​ ) die Wahrscheinlichkeit einer Wortfolge. Die Perplexität ist definiert als: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ​ ,w 2 ​ ,…,w N ​ ) − N 1 ​ Oder unter Verwendung der Kettenregel der Wahrscheinlichkeit: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N ​ P(w i ​ ∣w 1 ​ ,…,w i−1 ​ ) 1 ​ ​ Detektoren suchen nach niedriger Perplexität (hoher Wahrscheinlichkeit). Die Prompt-Anweisung „Wähle nicht das statistisch wahrscheinlichste nächste Token" zwingt das Modell, Token aus niedrigeren Bereichen der Wahrscheinlichkeitsverteilung auszuwählen (z. B. das 3. oder 4. wahrscheinlichste Wort statt des 1.), wodurch der 𝑃 𝑃 PP-Wert künstlich erhöht wird, um menschlichen Niveaus zu entsprechen.

Today
Menschliche Nachahmung 9.2V
Menschliche Nachahmung 9.2V

Ergebnis, das KI-Erkennungsalgorithmen umgeht (wie GPTZero, Originality.ai oder Turnitin)

6:17 AM