AI has ruined this contest, especially for Div. 1 contestants
Разница между en1 и en2, 49 символ(ов) изменены
### UPD. The rating finally roll back. Cheers↵

![ ](https://cdn.luogu.com.cn/upload/image_hosting/6gtw82us.png)↵

Today’s Global Round 29 felt fundamentally broken. Problem G was tailor-made for language models: a math task where a fluent explanation and a few lines of code could be produced on demand. The result was a scoreboard flooded with sudden G solves from accounts that otherwise struggled, while many honest Div.1 regulars—who actually reasoned through the problem—were pushed down. That isn’t competition; it’s a prompt-engineering race.↵

The damage is real: unfair rating shifts, polluted editorials, and a growing sense that integrity checks aren’t keeping up—especially when AI can generate proof-like text and lightly paraphrased code that slips past plagiarism filters. If Codeforces wants to protect the competitive spirit, we need tougher post-contest verification (e.g., short solution justifications for late problems), targeted rejudges with hidden variants, stricter account/device controls, clearer and harsher penalties for AI-assisted cheating, and more problems emphasizing interaction, constructions, or rigid invariants that resist autocompletion. ↵

Practice rooms can embrace tools; contests cannot.

История

 
 
 
 
Правки
 
 
  Rev. Язык Кто Когда Δ Комментарий
en2 Английский SirOcylder 2025-10-15 19:15:11 49 Tiny change: '![ ](https' -> '### UPD. The rating finally roll back. Cheers\n\n![ ](https'
en1 Английский SirOcylder 2025-09-20 20:35:51 1248 Initial revision (published)