Рубрика: Информатика
ChatGPT е автор на научни трудови – што значи ова за иднината на научните истражувања?
Автор: Невенка Стојановска
Објавено на 30.01.2023 - 08:15

Четботот ChatGPT со вештачка интелигенција (ВИ) којшто го фасцинира речиси целиот свет со своите “промислени” одговори на специфичните прашања, како способноста да  продуцира програмски линии без грешка и истовремено да дебатира на философски, политички и какви сè не прашања, ете токму тој сега се јавува наведен во листата на автори на најмалку четири научни трудови што се објавени или чекаат да бидат објавени. Појавата поттикна дебата во кругот на уредниците на научните списанија, научната заедница и издавачите за местото на ВИ алатката во публикациите, како и колку е соодветно четботот да биде наведен во листата на автори.

ChatGPT претставува голем јазичен модел (large language model – LLM), кој генерира убедливи реченици имитирајќи ги статистичките обрасци на јазикот достапен од огромната база на текстуални податоци собрани од Интернет. Со својата умешност ботот веќе предизвика бранувања во повеќе сфери, вклучително и научната сфера, покренувајќи загрижувачки прашања во врска со иднината на универзитетските есеи и истражувањето. И со право...

Помеѓу издавачите и предпринт сервисите контактирани од тимот за вести на Nature воглавно постои согласност дека вештачката интелигенција, каква што е и ChatGPT, не ги исполнува критериумите за автор на студијата, бидејќи оваа, но и сличните алатки не можат да преземат одговорност за содржината и интегритетот на научните трудови. Но, некои од издавачите велат дека придонесот на вештачката интелигенција во пишувањето трудови сепак може да се признае во делови различни од списокот на автори.

Имено, кога новинарскиот тим на Nature ги контактирал уредниците на четирите научни списанија во кои ChatGPT се појавува во листата на коавтори, двајца од нив одговориле дека се работи за превид што ќе биде коригиран, еден од нив воопшто не одговорил на прашањата, а според последниот од контактираните уредници, ВИ се наоѓа на листата на коавтори поради тоа што таа го преработила целиот труд по замерките добиени од рецезентите, па оттаму може да се смета дека коавторскиот статус е сосема соодветен.

Но, ова не е едниствената главоболка што ChatGPT им ја задава на уредниците. Чет-ботот со вештачка интелигенција може да напише толку убедливи лажни апстракти за истражувачки труд што научниците мошне често ова не можат да го забележат, ова го посочува трудот што стана достапен на предпринт серверот bioRxiv кон крајот на декември.

Истражувачите побарале од четботот да напише 50 медицинско-истражувачки апстракти врз основа на изборот од апстракти објавени во научните списанија JAMA, The New England Journal of Medicine, The BMJ, The Lancet и Nature Medicine. Тие потоа ги споредиле овие апстракти (напишани од ВИ) со оригиналните апстракти, поминувајќи ги низ детектор за плагијат и детектор за генериран излез од вештачка интелигенција, и побарале од група медицински истражувачи да ги откријат измислените апстракти.

Апстрактите генерирани од ChatGPT ја поминале проверката на плагијати – просечната оценка за оригиналност била 100%, што во основа значи дека се работи за оригинален текст. Детекторот за генериран излез од вештачката интелигенција бил нешто поуспешен и забележал 66% од генерираните апстракти. Но и човечките рецензенти не се покажале многу поуспешни како детектори – рецезентите успеале да идентификуваа само 68% од генерираните апстракти и 86% од вистинските апстракти. Тие погрешно идентификувале 32% од генерираните апстракти како реални, а згрешиле за 14% од вистинските апстракти сметајќи дека се генерирани.

Научната заедница е поделена околу импликациите што овие резултати ги имаат за науката. Некои од истражувачите сметаат дека непрепознавањето на работата на ВИ може да има сериозни последици, од тоа да ги наведе научниците да работат во погрешна насока поради тоа што нивните истражувања се засноваат на резултати од измислени истражувања. Но, дел од истражувачите се повикуваат на етичката карта при истражувањето, па дека фабрикувањето на истражувања не е нешто што би го правел сериозен научник. А дел сметаат дека уредништвата на научните списанија треба да изработат некој систем што би ја превенирал оваа појава.

Во оваа насока е и уводникот на уредништвото на Nature објавен минатата недела, кој се осврнува на овие проблеми и во кој ја открива усвоената политика на сите списанија под капата на Springer Nature. Имено, во веќе постоечкото упатство за автори тие ги додадоа и следните два принципа: Прво, ниту една алатка за LLM нема да биде прифатена како заслужен автор на истражувачки труд –секое припишување авторство носи со себе одговорност за работата, а алатките за вештачка интелигенција не можат да преземат таква одговорност. Второ, истражувачите кои користат LLM алатки треба да ја документираат оваа употреба во деловите за методи или признанија. Ако трудот не ги вклучува овие делови, воведот или друг соодветен дел може да се користи за документирање на употребата на LLM.

Како што објави новинарскиот тим на Nature, се очекува и други научни издавачи да заземат сличен став. Новинарскиот тим на Nature е уреднички независен од неговиот тим што работи на научните списанија и од неговиот издавач, Springer Nature.

Клучни зборови: