W miarę jak badacze zaczynają wykorzystywać potencjał zaawansowanych systemów opartych na sztucznej inteligencji, wydawcy muszą uznać ich legalne zastosowania i określić jasne wytyczne, aby uniknąć nadużyć.
Wpływ ChatGPT na pisanie prac naukowych może niepokoić. ChatGPT wygenerował streszczenia badań naukowych na tyle dobre, że naukowcom trudno było dostrzec, że napisał je komputer i zostały rozpoznane jako wygenerowane przez AI jedynie w 63% przypadków. To oznacza, że prace wygenerowanego przez sztuczną inteligencję mogą wkrótce znaleźć się w literaturze. Na chwilę obecną kilka preprintów i opublikowanych artykułów przypisuje ChatGPT formalne autorstwo (Nature 613, 620-621, 2023).
Wydawcy tysięcy czasopism naukowych zakazali lub ograniczyli korzystanie z ChatGPT, obawiając się, że może on zasypać literaturę akademicką sfabrykowanymi badaniami. Czasopismo Science, ogłosił zaktualizowaną politykę redakcyjną, zakazującą używania tekstu z ChatGPT i wyjaśniającą, że program nie może być wymieniony jako autor. Wiodące czasopisma naukowe wymagają od autorów podpisania oświadczenia o ponoszeniu odpowiedzialności za wkład w pracę. Ponieważ ChatGPT nie może tego zrobić, nie może być autorem publikacji. Inni wydawcy wprowadzili podobne zmiany. Springer-Nature także zaktualizował swoje wytyczne. Zgodnie z wytycznymi, ChatGPT nie może być wymieniony jako autor. Jakkolwiek może być używane do przygotowywania artykułów, pod warunkiem ujawnienia pełnych szczegółów w manuskrypcie. Elsevier zajął podobne stanowisko jak Springer-Nature. Jego wytyczne pozwalają na wykorzystanie narzędzi AI „w celu poprawy czytelności i języka artykułu badawczego, ale nie w celu zastąpienia kluczowych zadań, które powinni wykonać autorzy, takich jak interpretacja danych lub wyciąganie wniosków naukowych”. Autorzy muszą zadeklarować, czy i w jaki sposób korzystali z narzędzi AI.
W zeszłym roku Nature poinformował, że niektórzy naukowcy już używali chatbotów jako asystentów badawczych — aby pomóc uporządkować swoje myślenie, generować informacje zwrotne na temat ich pracy, asystować przy pisaniu kodu i podsumowywać literaturę naukową (Nature 611, 192–193; 2022). W odpowiedzi na to, Nature wraz ze wszystkimi czasopismami Springer, sformułowało następujące dwie zasady, które zostały dodane do istniejącego przewodnika dla autorów. Po pierwsze, żadne narzędzie typu large language models (w tym ChatGPT) nie zostanie zaakceptowane jako autor w artykule naukowym. Dzieje się tak, ponieważ każde przypisanie autorstwa wiąże się z odpowiedzialnością za pracę, a narzędzia AI nie mogą wziąć na siebie takiej odpowiedzialności. Po drugie, badacze korzystający z narzędzi LLM powinni udokumentować to użycie w sekcjach dotyczących metod lub podziękowań. Jeśli artykuł nie zawiera tych sekcji, wprowadzenie lub inna odpowiednia sekcja może być wykorzystana do udokumentowania użycia LLM.
Należy pamiętać, że ChatGPT ciągle popełnia wiele błędów. Jeśli naukowcy będą polegać na programach AI do przygotowywania przeglądów literatury lub podsumowywania swoich odkryć, właściwy kontekst pracy i dogłębna analiza, na którą zasługują wyniki, mogą się zgubić. Niektórzy naukowcy uważają, że ChatGPT i podobne narzędzia sztucznej inteligencji mogą być korzystne dla nauki, wyrównując szanse osób, dla których język angielski nie jest rodzimym językiem, a które mogłyby korzystać z programów sztucznej inteligencji, aby uczynić język w swoich artykułach bardziej płynnym.
Czy w takim razie redaktorzy i wydawcy mogą wykryć tekst generowany przez LLM? W tej chwili odpowiedź brzmi „być może”. Dane wyjściowe ChatGPT można wykryć po dokładnym zbadaniu, szczególnie gdy dotyczy to więcej niż kilku akapitów, a temat dotyczy pracy naukowej. Niektóre oprogramowania obiecują, że są w stanie wykryć wyniki generowane przez LLM. Wydawca Nature, Springer Nature, jest jednym z tych, którzy opracowują technologie, które to umożliwiają.