Вештачката интелигенција претставува опасност за човештвото споредлива со онаа од пандемии и нуклеарни војни – алармот го креваат 350 научници.
„Намалувањето на ризикот од исчезнување предизвикано од вештачката интелигенција треба да биде глобален приоритет, како и другите општествени ризици како што се пандемии и нуклеарна војна“.
Со оваа кратка изјава, потпишана од 350 научници и инженери кои работат во областа на вештачката интелигенција и објавена од непрофитниот Центар за безбедност на вештачката интелигенција (Center for AI Safety), врвните стручњаци во индустријата уште еднаш проговорија за ризиците поврзани со сѐ понапредниот развој на вештачката интелигенција. Опасноста не доаѓа само од измамничките т.н. дипфејк содржини или од губење на работни места, дел од фелата предупредува на опасност од исчезнување на нашиот вид!
Меѓу потписниците на отвореното писмо се издвојуваат лидерите на главните компании за развој вештачка интелигенција како Сем Алтман, извршен директор на OpenAI, Демис Хасабис, иста улога во Google DeepMind и Дарио Амодеи, на чело на американскиот стартап за вештачка интелигенција Anthropic. Тука се и Џефри Хинтон и Јошуа Бенџо, добитници на Туринговата награда (еквивалент на Нобеловата награда за компјутерски научници), кои се сметаат за пионери на вештачката интелигенција за нивните револуционерни студии за невронските мрежи, модели за обработка на информации врз основа на учење во препознавање на лица, системи за автономно возење и социјални работници, само да наведам неколку типови на вештачка интелигенција.
Апелот, намерно склопен концизно за да не се навлегува во специфичноста на поединечните закани за да се придобие максимален број научници да се приклучат кон него, е дел од климата на општа загриженост за мошне брзиот напредок на некои видови вештачка интелигенција, како што се големите лингвистички модели како ChatGPT. Се стравува дека нерегулираниот развој на софтверот што се користи за овој и други конкурентни чет-ботови може да доведе до употреба на вештачка интелигенција за ширење дезинформации и пропаганда, создавајќи неред во институциите и социјални нарушувања.
Овие стравувања честопати само приватно изразени од научниците ги наведуваат инсајдерите во вештачката интелигенција да се најдат во непријатна позиција да се плашат од самите технологии чиешто создавање тие го помагаат. Најголемиот е стравот од развој на силна или сеприсутна вештачка интелигенција, во не толку далечна иднина, којашто е способна за учење и разбирање исто како човек.
Заканата од вештачката интелигенција се приклучува кон другите закани за опстанокот на нашиот вид предизвикани од работата на човекот, како што се климатските промени, нуклеарното оружје или растечкиот ризик од пандемии поради несовесното користење на природните ресурси. Накратко, се чини дека каква и да е судбината што нѐ чека, крајот мора да дојде преку самоуништување – убав автогол за вид кој тврди дека е интелигентен.
За среќа, имаме и алатки за заштита во наши раце и подобро би било тоа да го направиме со време. Во неодамна објавениот пост Алтман, заедно со уште двајца директори на OpenAI, предлага неколку стратегии за одговорно управување со потенцијалот на вештачката интелигенција: соработка помеѓу индустриските субјекти кои работат на терен, повеќе истражувања за лингвистичките модели и формирање меѓународна организација за безбедност на вештачката интелигенција слична на Меѓународната агенција за атомска енергија (МААЕ), тело кое го надгледува нуклеарното управување, апликациите и безбедноста.
Алтман, исто така, се изјасни за законите кои бараат од креаторите на најнапредните модели на вештачка интелигенција да се регистрираат за лиценца за употреба регулирана од владата.