Од OpenAI доаѓа GPT-4 – најновата верзија на системот за вештачка интелигенција што го напојува четботот. OpenAI вели дека новата верзија е уште покреативна, помалку пристрасна и со помала веројатност да фабрикува факти, споредено со нејзиниот претходник Chat GPT-3, кој привлече големо внимание.
Еден од основачите на оваа истражувачка лабораторија за вештачка интелигенција, Сем Алтман, рече дека тоа е „најспособниот и најрационализиран модел досега“ и дека користи нов „мултимодален“ систем, што значи дека може да прифаќа слики, како и текст, па корисниците можат да поставуваат прашања и за сликите.
Новата верзија може да прифати поголем внес на текст, и да запомни и да одговори на прашања кои содржат повеќе од 20 000 зборови. Ова значи, на пример, дека може да внесете цела новела во полето за прашања, пренесува Гардијан.
За време на демонстрацијата на моделот GPT-4, претседателот и со-основач на OpenAI, Грег Брокман, исто така им даде на корисниците увид како ќе изгледаат способностите за препознавање фотографии на новиот систем. Оваа функција сѐ уште не е јавно достапна, но е во фаза на развој, а ќе се вика „Биди ми очи“ (Be My Eyes).
Со помош на оваа функција, GPT-4 ќе може да ги анализира и да одговара на фотографиите доставени до него како барање, а ќе може и да одговара на прашања или да извршува задачи врз основа на тие слики. Брокман вели дека „GPT-4 не е само јазичен модел, туку и визуелен модел, така што може да прифати влез што содржи и слики и текст, слично на документ“.
Компанијата соопшти дека врз основа на претходните разговори што Chat GPT ги имал со корисниците (во бесплатната верзија), за новиот модел успеале да ги отстранат некои од недостатоците, така што сега ќе има за 29% поголема веројатност да биде повнимателен кога одговара на прашања за здравствени совети, додека истовремено ќе има за 82% помала веројатност да одговори погрешно на прашањата кои содржат незаконски содржини.
Без оглед на одредени подобрувања, Open AI предупредува дека новиот модел на разговор сѐ уште ќе биде подложен на „халуцинации“, односно на неточни тврдења, а истакнуваат дека корисниците треба да бидат особено внимателни кога од програмата бараат дополнителен контекст за некое прашање.
Во анализата на Chat GPT-4, Њујорк тајмс наведува неколку сегменти во кои е постигнат напредок кај новиот модел, но и тие го истакнуваат проблемот дека „халуцинирањето сѐ уште опстојува“.
Кога Крис Николсон, експерт за вештачка интелигенција, започнал со тестирање на моделот GPT-4, тој му кажал на четботот дека зборува англиски, но не знае ниту збор шпански. Потоа побарал наставна програма што би му помогнала да ги научи основите на шпанскиот јазик. Ботот му го дал токму тоа, мошне детално и организирано, придружено со совети како да запомни одредени зборови.
Николсон ја побарал истата помош од претходниот модел, кој му дал програма, но неговиот совет бил поопшт и помалку корисен. По негова проценка, Николсон вели дека четботот „ја проби бариерата на точноста, па сега вклучува повеќе факти, кои често се точни“.
Новата способност што ја има овој модел, а што отсуствуваше кај неговиот претходник, е да одговара на записи на фотографии подеднакво како и при внесувањето текст. На веќе споменатата демонстрација, Брокман како барање внел мошне детална фотографија направена од вселенскиот телескоп Хабл, а описот со кој одговори четботот имал поприличен број на пасуси.
Исто така, доколку се внесе фотографија со одредена содржина, четботот може да одговори и што има на неа, но и да одговори на некои други прашања поврзани со нејзината содржина. На пример, може ако се внесе слика од фрижидер со храна и се постави прашањето „Што можам да направам од оваа слика?“, а четботот ќе ви даде неколку предлози за оброци од намирниците што се гледаат во фрижидерот.
При тестирањето, Анил Гехи, професор по медицина и кардиолог на Универзитетот во Северна Каролина, на четбот му ја опишал медицинската историја на пациент што го прегледал претходниот ден. Ги вклучил сите компликации што ги забележал, додавајќи податоци и за тоа како се однесувал пациентот по приемот во болница, а навел и неколку медицински термини кои не се општо познати.
Кога доктор Гехи го прашал како треба да се однесува со пациентот, четботот му дал совршен одговор. „Токму вака и го третираме пациентот“, - кажал Гехи, откако го видел одговорот на четботот и потоа со четботот тестирал уште неколку сценарија на кои добил слични резултати.
Но, сѐ не функционира беспрекорно. Имено, и при тестот на Њујорк Тајмс не изостанала ситуацијата со која се соочуваат сите популарни чет-ботови, проблем што наједноставно може да се опише како „измислување работи“, односно „халуцинација“. Работата е во тоа што системите немаат осет за тоа што е реално, а што не е, па можат да одговорат на прашање со целосно измислени работи кои изгледаат (донекаде) реално.
Така, на пример, кога било побарано од четботот да обезбеди адреси на веб-страници кои го опишуваат најновото истражување на тема рак, четботот понекогаш давал интернет адреси кои во реалноста воопшто не постојат.