Рубрика: Информатика
За што не треба да се прави муабет со ChatGPT
Автор: Ива Зафировска
Објавено на 12.12.2024 - 12:30

Личните податоци споделени со чет-ботови со вештачка интелигенција може да се злоупотребат, најмногу затоа што може да се најдат помеѓу податоците што се користат за обука на вештачката интелигенција

Вештачката интелигенција е сè поприсутна во нашето секојдневие, а се користи сè повеќе и повеќе. Па, популарноста на апликациите за четбот со вештачка интелигенција, како што се ChatGPT или Google Gemini, е во постојан подем. Овие чет-ботови се привлечни за луѓето поради нивната способност да генерираат одговори на прашања на начин мошне близок до човечката комуникација.

Но, личните кориснички податоци споделени со чет-ботови со вештачка интелигенција може да се откријат и злоупотребуат, пред сè поради тоа што тие може да се најдат помеѓу податоците што се користат за обука на други ботови со вештачка интелигенција. На овој начин тие може да дојдат до компаниите што стојат зад овие алатки за вештачка интелигенција и до нивните партнери, но и до хакерите, доколку упаднат во системот.

Од тие причини никогаш не треба да ги споделувате следниве податоци со вештачката интелигенција:

• Финансиски податоци. Ако користите чет-ботови со вештачка интелигенција како лични финансиски советници, ризикувате да ги изложите информациите за вашите финансии на кибер-криминалци кои би можеле да ги користат за да ги исцрпат вашите сметки или да ги злоупотребат за други видови измами. 
И покрај тоа што компаниите често тврдат дека податоците за разговор со корисничката вештачка интелигенција се анонимни, некои вработени во тие компании или нивните партнери од трета страна можеби сè уште имаат пристап до нив.

• Шифри. Споделувањето лозинки од различни сметки на Интернет е генерално ризично, како што постојано предупредуваат експертите за кибер безбедност. Истото важи и за големите јазични модели на кои се засноваат чет-ботовите со вештачка интелигенција, па со таквиот потег се изложувате на големи ризици.
За да се заштитите, никогаш не споделувајте ги лозинките на вашата онлајн сметка со чет-ботови, дури и кога тоа може да биде со цел да се реши некој проблем.

• Доверливи информации за работното место. Технолошките гиганти Епл, Самсунг и Гугл им ја ограничија употребата на чет-ботови со вештачка интелигенција на своите вработени на работното место, откако компаниите забележаа случаи на ненамерно откривање чувствителни информации во комуникациите со вештачката интелигенција.
Така, еден од развојните инженери во Samsung го користел ChatGPT како помош за кодирање и со тоа ненамерно споделил чувствителен код со генеративната вештачка интелигенција. Многумина од вработените се потпираат на чет-ботови за да ги сумираат заклучоците од деловните состаноци или да ги автоматизираат повторливите задачи, но притоа ризикуваат да изложат чувствителни податоци.

• Адреса и други лични податоци. Чувствителните лични податоци како што се адресата и местото на живеење, датумот на раѓање, матичниот број или здравствените информации може да се искористат за да се идентификува и лоцира нивниот сопственик, па затоа нив треба да си ги зачувате за себе, секогаш кога тоа е можно.

• Лична состојба и интимни мисли. Чет-ботовите со вештачка интелигенција можеби се добри соговорници, но им недостига знаење од реалниот свет, па на пример на прашањата за (менталното) здравје можат да понудат само генерички одговори. Ова значи дека лековите или третманите што тие ги предлагаат можеби не се соодветни за специфичните потреби на корисникот и може да бидат штетни за здравјето.

 

Поради сето ова чет-ботовите со вештачка интелигенција треба да се користат за размена на општи информации и знаења, а од нив не треба да се очекува професионална поддршка или терапија.

Клучни зборови: