Proč AI detektory nefungují?
Turnitin, GPTZero a další... jak (ne)fungují nástroje odhadující, zda text vytvořila umělá inteligence a co z toho vyplývá pro praxi?
Představte si, že odevzdáte vědecký článek k posouzení – a na druhé straně sedí recenzent a otevře si nástroj umělé inteligence. Podle průzkumu vydavatelství Frontiers z roku 2025 (1 600 výzkumníků, 111 zemí) více než polovina recenzentů dnes AI při hodnocení článků používá.
Většinou si nechají pomoct s psaním posudků, shrnutím výsledků nebo odhalením plagiátů. Jen málokdo ale AI zapojuje tam, kde by mohla pomoci nejvíc. V tom, kde by AI mohla pomoct, se však názory odborníků různí. Někteří vidí její příležitost při ověřování statistik nebo metodologie, někteří naopak uvádí, že právě tam by AI zasahovat neměla; jak upozorňuje přehledový článek v Journal of Korean Medical Sciences (Doskaliuk a kol., 2025): posouzení novosti výzkumu, interpretace složitých dat nebo hodnocení etických standardů zůstává doménou lidského experta. AI zkrátka nedokáže „přemýšlet" jako zkušený recenzent.
Řada výzkumníků nahrává rukopisy do chatbotů třetích stran, což většina vydavatelů zakazuje kvůli ochraně dat a duševního vlastnictví. A jak ukázal experiment inženýra Mima Rahimiho z Univerzity v Houstonu, který nechal GPT-5 recenzovat svůj článek v Nature Communications – AI sice napodobila strukturu posudku, ale dopustila se faktických chyb a nedokázala poskytnout skutečně užitečnou zpětnou vazbu.
Automatická kontrola gramatiky, formátování, konzistence terminologie nebo strukturování zpětné vazby – to jsou oblasti, kde AI recenzentům šetří čas a uvolňuje prostor pro skutečnou vědeckou práci. AI může také pomoci formulovat konstruktivní a srozumitelné komentáře, což přispívá k lepší komunikaci mezi recenzentem a autorem.
Přestože většina výzkumníků uznává, že AI zlepšuje kvalitu rukopisů, zároveň se obávají jejího zneužití. V průzkumu vydavatele Wiley vyjádřilo 87 % respondentů obavy z chyb AI, problémů s bezpečností dat a netransparentnosti. Důležitou roli hrají i možné předsudky zakódované v trénovacích datech – AI modely mohou například systematicky upřednostňovat výzkum z určitých regionů nebo institucí.
Vydavatelství Frontiers spustilo vlastní uzavřenou AI platformu pro recenzenty, kde je chráněna důvěrnost rukopisů. Jasná pravidla pro využívání AI v recenzním řízení začínají zavádět i přední lékařské časopisy – například JAMA vyžaduje, aby recenzenti uvedli, jaký AI nástroj použili a jakým způsobem. Průzkum Frontiers zároveň ukazuje, že 35 % výzkumníků se s AI učí pracovat zcela na vlastní pěst a 20 % považuje nejasná pravidla za hlavní bariéru. Cesta vpřed vede přes lepší podporu, rozvoj AI gramotnosti, srozumitelná pravidla a otevřenou komunikaci mezi všemi aktéry.
AI v recenzním řízení není ani spasitel, ani hrozba – je to nástroj. A jako u každého nástroje záleží na tom, jak ho používáme.
Turnitin, GPTZero a další... jak (ne)fungují nástroje odhadující, zda text vytvořila umělá inteligence a co z toho vyplývá pro praxi?
Copilot má novou funkci, která vám umožní přímo v okně upravovat vygenerovaný text, který můžete sdílet nejen s kolegy, ale také si jej rovnou můžete vyexportovat jako Word nebo jako PDF dokument.