AI model
Imitación Humana 9.2V
6
6
Review
~25

Un LLM predice la siguiente palabra basándose en la distribución de probabilidad. Sea 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ​ ,w 2 ​ ,…,w N ​ ) la probabilidad de una secuencia de palabras. La perplejidad se define como: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ​ ,w 2 ​ ,…,w N ​ ) − N 1 ​ O, usando la regla de la cadena de probabilidad: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N ​ P(w i ​ ∣w 1 ​ ,…,w i−1 ​ ) 1 ​ ​ Los detectores buscan baja perplejidad (alta probabilidad). La instrucción del prompt "No elijas el siguiente token estadísticamente más probable" obliga al modelo a seleccionar tokens de posiciones más bajas en la distribución de probabilidad (por ejemplo, la 3ª o 4ª palabra más probable en lugar de la 1ª), inflando artificialmente el valor de 𝑃 𝑃 PP para igualar los niveles humanos.

Today
Imitación Humana 9.2V
Imitación Humana 9.2V

resultado que evade los algoritmos de detección de IA (como GPTZero, Originality.ai o Turnitin)

6:17 AM