Како и за сите технологии, така и современите четботови управувани од вештачка интелигенција, исто така, имаа потреба од период на прилагодување. На почетокот, всушност, се стравуваше дека генеративните алгоритми би можеле да шират лажни вести меѓу корисниците, хипотеза што беше потврдена во различни студии. Овие алгоритми, сепак, се обучени во огромното море на Интернетот и можат да научат точни, но и неточни поими. Меѓутоа, една студија спроведена од група научници од МИТ во Бостон, ја демантираше оваа перспектива.
Водачот на проектот, Томас Костело, покажал како јазичните модели кои ги поттикнуваат чет-ботовите како ChatGPT, Gemini (порано познат како Google Bard) и Copilot (или Microsoft Bing AI) можат да ги разнишаат убедувањата на луѓето кои веруваат во теориите на заговор, преку едноставна дискусија со нив. Не само тоа, пристапот што тие го користат укажува и на тоа кој е најдобриот начин за интеракција со теоретичарите на заговор, личности кои покажуваат тврдоглава убеденост во нивните верувања.
Студијата, достапна на PsyArXiv, вклучи 2190 следбеници на теориите на заговор, од „рамноземјани “ и „лунаристи“ (оние кои мислат дека човекот никогаш не бил на Месечината), па сè до оние кои веруваат дека меѓу нас има вонземјани, дека нападите од 11 септември 2001 година биле планирани од американската влада и дека со вакцините се вбризгуваат микрочипови под кожата за да се контролираат умовите (за сѐ ова види и тука и тука).
Експериментот се одвивал во неколку фази. Најнапред учесниците шематски ја илустрирале теоријата (за која биле убедени дека е вистина) во најновата верзија на ChatGPT (GPT-4 Turbo Large Language Model), која пак, генерирала резиме што треба да им се достави. Во овој момент, четботот започнал кратка дискусија со засегнатата личност, која се состоела од само три размени на мислења, на крајот од кои „теоретичарот на заговор“ морал по втор пат повторно да ја претстави својата теорија во шематски облик. Во приближно 20% од случаите, испитаниците увиделе каде е грешката, менувајќи го своето мислење.
Всушност, се чини дека вештачката интелигенција покажала подобри резултати од многу луѓе, менувајќи го мислењето на приближно еден од пет учесници со само неколку притискања на копчињата.
Томас Костело, шеф на проектот од МИТ, ова го објаснува на следниот начин: „Широк и површен пристап не функционира за да ги убеди теоретичарите на заговор, бидејќи тие имаат тенденција длабоко да ја проучуваат темата во која веруваат, дури и ако нивното разбирање е погрешно. Добрите резултати што ги покажале чет-ботите можеби зависат од тоа што, наместо да критикуваат, тие воспоставуваат дијалог на исто ниво, користејќи убедливи аргументи, фокусирајќи се на фактите и не внесувајќи ниту емоции ниту емпатија“.