Ова поставува морална дилема за секој што го користи софтверот
Мета ќе ги стави на располагање своите модели за генеративна вештачка интелигенција (ВИ) на владата на Соединетите држави, најави технолошкиот гигант, во контроверзен потег што покренува морална дилема за сите што го користат софтверот.
Mинатата недела Мета откри дека ќе ги направи моделите, познати како Лама (Llama), достапни за владините агенции, „вклучувајќи ги и оние што работат на апликации за одбрана и национална безбедност и партнерите од приватниот сектор кои ја поддржуваат нивната работа“.
Се чини дека одлуката на Мета е во спротивност со нивниот сопствен правилник кој наведува низа забранети употреби на Лама, вклучително и за „воени, војни, нуклеарни индустрии или апликации“, како и шпионажа, тероризам, трговија со луѓе и експлоатација или повредување на деца.
Исклучокот на Мета, наводно, се однесува и на слични агенции за национална безбедност во Обединетото Кралство, Канада, Австралија и Нов Зеланд. Ова се случува само три дена откако Ројтерс откри дека Кина ја преработила Лама за сопствени воени цели.
Ситуацијата ја нагласува зголемената кревкост на софтверот за вештачка интелигенција со отворен код. Тоа исто така значи дека корисниците на Facebook, Instagram, WhatsApp и Messenger – чиишто верзии користат Llama – можеби ненамерно придонесуваат за развој на воените програми ширум светот.
Што е Лама?
Лама е збир на големи јазични модели – слични на ChatGPT – и големи мултимодални модели кои работат со податоци различни од текст, какви што се аудиото и сликите.
Мета, компанијата-мајка на Facebook, ја објави Llama како одговор на ChatGPT од OpenAI. Клучната разлика помеѓу двете е тоа што сите модели на Llama се продаваат како софтвер со отворен код и се бесплатни за употреба. Ова значи дека секој може да го преземе изворниот код на моделот Llama и сам да го стартува и да го менува (ако го има вистинскиот хардвер). Од друга страна, до ChatGPT може да се пристапи само преку OpenAI.
Иницијативата Отворен код (Open Source Initiative), орган кој го дефинира софтверот со отворен код, неодамна објави стандард кој одредува што треба да вклучува вештачката интелигенција со отворен код. Стандардот наведува т.н. „четири слободи“ кои моделот со вештачка интелигенција мора да ги даде за да се класифицира како софтвер со отворен код:
• употреба на системот за која било цел и без барање дозвола
• проучување на тоа како системот функционира и проверка на неговите компоненти
• модифицирање на системот за која било цел, вклучително промена на неговиот излез
• споделување на системот за другите да го користат со или без модификации, за која било цел.
Лама на Мета не ги исполнува овие барања. Ова се должи на ограничувањата за комерцијална употреба, забранетите активности кои може да се сметаат за штетни или незаконски и недостатокот од транспарентност на податоците за обуката на Лама. И покрај ова, Мета сè уште ја опишува Лама како софтвер со отворен код.
Пресек на технолошката индустрија и војската
Мета не е единствената комерцијална технолошка компанија која се занимава со воени апликации на вештачката интелигенција. Во изминатата недела, Anthropic, исто така, објави дека се здружува со Palantir – фирма за анализа на податоци – и Amazon Web Services за да им обезбеди на американските разузнавачки и одбранбени агенции пристап до своите модели со ВИ.
Мета ја бранеше својата одлука да им дозволи американските агенции за национална безбедност и одбранбените изведувачи да ја користат Лама. Компанијата тврди дека овие употреби се „одговорни и етички“ и „го поддржуваат просперитетот и безбедноста на Соединетите држави“.
Мета не беше транспарентна во врска со податоците што ги користи за обука на Лама. Но, компаниите кои развиваат генеративни модели на вештачка интелигенција често ги користат влезните податоци од корисниците за дополнително да ги обучуваат нивните модели, а луѓето споделуваат многу лични информации кога ги користат овие алатки.
ChatGPT и Dall-E обезбедуваат опции за откажување од собирањето на вашите податоци. Но, нејасно е дали Лама го нуди истото. Опцијата за откажување не е јасно наведена кога се регистрирате за користење на овие услуги. Ова ја префрла одговорноста на корисниците за самите да се информираат , а повеќето корисници можеби и не се свесни каде и како се користи Лама.
На пример, најновата верзија на Llama ги напојува алатките за ВИ во Facebook, Instagram, WhatsApp и Messenger. При користење на ВИ функциите на овие платформи – како што е создавањето на ролни (reels) или предлагање натписи – корисниците всушност ja користат Лама.
Кревкоста на отворениот код
Придобивките од отворениот код вклучуваат отворено учество и соработка на софтверот. Сепак, ова може да доведе и до ранливи системи со кои лесно се манипулираат. На пример, по руската инвазија на Украина во 2022 година, дел од заедницата направија промени во софтверот со отворен код за да ја изразат својата поддршка за Украина.
Овие промени вклучуваа антивоени пораки и бришење системски датотеки на руски и белоруски компјутери. Движењето стана познато како „протествер“.
Пресекот на вештачката интелигенција со отворен код и воените апликации најверојатно ќе ја влоши оваа кревкост бидејќи робусноста на софтверот со отворен код зависи од јавната заедница. Во случај на големите јазични модели каков што е Llama, тие бараат јавна употреба и ангажман бидејќи моделите се дизајнирани за да се подобруваат со текот на времето преку јамка за повратни информации помеѓу корисниците и системот за вештачка интелигенција.
Заедничката употреба на алатките за вештачка интелигенција со отворен код ги става во ист кош двете страни – јавниот пристап и војската – кои историски имаат посебни потреби и цели. Оваа промена ќе отвори уникатни предизвици за двете страни.
За војската, отворениот пристап значи дека може лесно да се добијат пофини детали за тоа како функционира алатката за вештачка интелигенција, што потенцијално ќе доведе до проблеми со безбедноста и ранливоста. За пошироката јавност, недостатокот на транспарентност за тоа како се користат податоците на корисниците од страна на војската може да доведе до сериозна морална и етичка дилема.
Зена Асад, виш предавач на Техничкиот факултет при Австралискиот национален универзитет
Преземено од The Conversation, со дозвола Creative Commons