„AIgiaryzm” – plagiat XXI wieku i konieczność jawnego deklarowania użycia AI w generowaniu publikacji naukowej
Wzrost znaczenia generatywnej sztucznej inteligencji (AI) poszerzył zakres obowiązków i tak już zapracowanych redaktorów naukowych, którzy muszą dziś brać pod uwagę ryzyko nieujawnionego wykorzystania AI przy przygotowywaniu manuskryptów. Choć istnieją narzędzia do wykrywania śladów użycia AI, ich skuteczność bywa ograniczona — wyniki analiz nie zawsze są jednoznaczne ani w pełni wiarygodne, co dodatkowo komplikuje proces oceny rzetelności zgłoszonych prac. Najnowszy artykuł opublikowany w czasopiśmie Science Editor, analizuje etyczne i naukowe konsekwencje nieujawnionego wykorzystania generatywnej sztucznej inteligencji (AI) przy pisaniu prac akademickich.
Chatboty oparte na LLM zrewolucjonizowały sposób, w jaki autorzy tworzą publikacje naukowe. Jednocześnie wydawnictwa zaczęły wprowadzać zasady dotyczące użycia AI przy przygotowywaniu manuskryptów, z których większość wymaga zadeklarowania takiego użycia. Jak pokazuje analiza opublikowana w Nature, mimo obowiązku deklarowania użycia AI, setki prac naukowych zawierają fragmenty wygenerowane przez sztuczną inteligencję bez odpowiedniego ujawnienia. Sytuacja jest szczególnie trudna dla redaktorów czasopism, ponieważ trudno jednoznacznie ustalić, czy AI faktycznie została użyta przy pisaniu manuskryptu, a dostępne narzędzia wykrywające AI często nie są wystarczająco wiarygodne. Czy więc manuskrypt podejrzany o nieujawnione użycie AI powinien być odrzucony lub wycofany, czy może dopuszczalne byłoby deklaracje retrospektywne? W szczególności, że nawet same wydawnictwa mają różnorodne opinie w kwestii tego, czy i w jakim stopniu należy deklarować użycie AI oraz jak takie deklaracje powinny być formułowane. Pewnym jest, że deklaracja musi być na tyle precyzyjna, aby było wiadome, które elementy pracy są oryginalnym wkładem autora, a które zostały wygenerowane/ zmodyfikowane przez AI. Autor artykułu proponuje podział deklaracji na dwa poziomy:
– Poziom I – czyli sytuacja, gdy AI tworzy treści, analizuje dane lub obrazy. Tego typu użycie powinno być nie tylko zadeklarowane, ale również szczegółowo opisane w odpowiednich częściach manuskryptu (Wstęp, Metody, Wyniki, Dyskusja). Jeśli AI pomogła w identyfikacji luk w wiedzy lub analizie danych, informacje te muszą być jawnie przedstawione, podobnie jak opis metod w eksperymentach czy procedurach badawczych. Co jest szczególnie niepokojące, to fakt, że brak weryfikacji treści oraz brak przejrzystości w procesie ich powstawania może prowadzić do fałszywego przedstawienia badań – zarówno pod względem ich autentyczności, jak i prawdziwości. W naszym artykule pisaliśmy o tym, że generatywna AI ma tendencję do „halucynowania” i tworzenia poważnych nieścisłości lub bezsensownych treści, co dodatkowo zwiększa ryzyko rozpowszechniania błędnych informacji w literaturze naukowej.
– Poziom II – czyli zastosowanie AI jako wsparcia w pisaniu tekstu – np. zbierania cytowań, tłumaczenia i korekty językowej. Autor podkreśla, że nawet przy takim wsparciu deklaracja powinna być na tyle szczegółowa, by wiernie oddać przebieg procesu badawczego. Jeśli autor twierdzi, że AI służyła jedynie do korekty językowej, powinien udostępnić pierwotną wersję tekstu. W przypadku ujawnienia, że tekst został od początku wygenerowany przez AI lub że AI stworzyła również elementy graficzne, mamy do czynienia z fałszywym przedstawieniem badań.
Zgodnie z tym stanowiskiem, wszystkie czasopisma naukowe powinny nie tylko wymagać deklaracji użycia AI przy przygotowywaniu manuskryptów, ale także domagać się, by takie deklaracje zawierały wystarczająco szczegółowe informacje, umożliwiające redakcji ocenę autentyczności, prawdziwości i wkładu ludzkiego autora. Innymi słowy, wkład intelektualny człowieka musi być przejrzysty, zgodnie z wytycznymi ICMJE dotyczącymi autorstwa. Z reguły redaktorzy decydują się na odrzucenie manuskryptu, w którym wykryto nieujawnione użycie AI na etapie wstępnej recenzji, co tłumaczone jest jako „niezgodność z polityką czasopisma” (a nie naruszenie zasad etyki badawczej). Problem pojawia się, jeśli artykuł zostanie opublikowany, a nieujawnione użycie AI zostanie zauważone i zgłoszone (tzw. „postpublication peer reviews”). Z reguły wydawnictwa starają się nie eskalować sprawy a niekiedy pozwalają autorom na złożenie retrospektywnej deklaracji w formie sprostowania, zamiast retrakcji.
Zgoda na użycie sztucznej inteligencji w procesie tworzenia publikacji naukowych niesie ze sobą ogromny potencjał, ale również poważne ryzyko. Dlatego tylko pełna przejrzystość w tym zakresie może zagwarantować, że publikacje pozostaną rzetelne, wiarygodne i zgodne z zasadami etyki akademickiej.
Pełna przejrzystość to fundament zaufania w komunikacji naukowej. Bez niej podważamy nie tylko wartość pojedynczej publikacji, ale również wiarygodność całego systemu nauki.