Рубрика: Информатика
Google, Microsoft, Open AI и Anthropic формираа група за регулирање на развојот на вештачката интелигенција
Автор: Ива Зафировска
Објавено на 28.07.2023 - 15:45

Четири од највлијателните компании во областа на вештачката интелигенција формираа групација ширум индустријата за да го надгледуваат безбедниот развој на најнапредните модели. Правилата за безбеден и одговорен развој на граничните модели на вештачка интелигенција првично ќе бидат диктирани од Google, Microsoft, Open AI и Anthropic.

Организацијата Frontier Model Forum ја формираа компанијата Open AI, која стои зад Chatbot ChatGPT, потоа Antropik, Microsoft и Google, којшто е сопственик на компанијата Deep Mind со седиште во Велика Британија. Претставниците на групата велат дека фокусот ќе биде ставен на „безбедниот и одговорен“ развој на граничните модели со вештачка интелигенција, осврнувајќи се на технологијата заснована на вештачка интелигенција која е дури и понапредна од алатките што се достапни во моментов.

Компаниите кои развиваат технологија заснована на вештачка интелигенција се одговорни за создавање на безбеден производ кој мора да остане под човечка контрола“, изјавил Бред Смит, претседател на Мајкрософт. Според него, оваа иницијатива е клучен чекор за зближување на технолошкиот сектор на полето на одговорно унапредување на вештачката интелигенција и соочување со предизвиците, за целото човештво да има корист од овој напредок, а не штета.

Членовите на форумот наведуваат дека нивните главни цели се промовирање на истражувања за безбедноста на вештачка интелигенција, како што е развивање на стандарди за евалуација на моделите; поттикнување на одговорна примена на напредните модели засновани на вештачка интелигенција; дискусија за безбедносните ризици и довербата во вештачката интелигенција со политичари и експерти; поддршка на развојот на позитивна употреба на вештачката интелигенција како што е помош во справувањето со климатските промени и за рано откривање на рак. Тие додадоа дека членството во групата е отворено за организациите кои развиваат гранични модели, кои се дефинирани како „големи модели за машинско учење кои ги надминуваат можностите моментално присутни во најнапредните постоечки модели и можат да извршуваат широк опсег на задачи“.

Најавата за формирање на оваа групација доаѓа во време кога се забрзува регулацијата на технологијата. Во петокот, технолошките компании – вклучително и членовите на групата Frontier Model Forum – се согласија на нови заштитни мерки поврзани со вештачката интелигенција по состанокот со Џозеф Бајден во Белата куќа.

Заложбите усвоени на состанокот вклучуваат означување на содржината произведена од алатки засновани на вештачка интелигенција, со цел полесно да се воочат материјалите што доведуваат до заблуда (како што се т.н. deepfake) и да им се дозволи на независните експерти да тестираат модели користејќи вештачка интелигенција.

Најавата на Белата куќа беше дочекана со скептицизам од страна на некои активисти кои велат дека технолошката индустрија е позната по прекршување на саморегулацијата. Минатонеделната најава на Мета дека ќе објави модел на вештачка интелигенција беше опишана од еден експерт како „давање на луѓето план за правење нуклеарна бомба“.

Групата Frontier Model Forum посочува дека „важни придонеси“ за безбедноста дошле од регулаторни тела како владата на Обединетото Кралство, која свика глобален самит за безбедност во областа на вештачката интелигенција и ЕУ, која воведува нацрт-закон за вештачка интелигенција, чин што претставува најсериозен законодавен обид за регулирање на технологијата заснована на машинско учење.

Клучни зборови: