Iako umjetna inteligencija "razmišlja" i zaključuje puno brže od čovjeka, na nju se, barem za sada, ne možemo stopostotno osloniti. AI modeli o3 i o4-mini iz OpenAI-ja vrhunac su tehnološkog razvoja, ali se i dalje suočavaju s ozbiljnim izazovima – ponajprije s takozvanim "halucinacijama".
Prema pisanju portala Geek.hr, ti modeli generiraju netočne ili izmišljene informacije i to čak čine više nego njihovi prethodnici. Riječ je o modelima o3 i o4-mini koji pripadaju skupini "rezonirajućih modela".
Zabrinjava to što OpenAI, istraživačka organizacija za umjetnu inteligenciju - ne nudi jasno objašnjenje zašto svaki novi model sve više halucinira.
Model 04-mini imao 48 posto halucinacija
Ne može se reći da baš svuda "šteka". Primjerice, ti modeli koje koristi umjetna inteligencija pokazali su se vrlo sposobnima u rješavanju matematičkih zadataka i kodiranja. Ipak, što više tvrdnji daju, uz točne informacije - sve više dodaju i netočne te izmišljaju odgovore.
Model 04-mini pokazao se vrlo lošim od drugih, prema testu PersonQa koji procjenjuje točnost znanja o ljudima, imao je 48 posto halucinacija.
Bivši zaposlenik OpenAI-ja Neil Chowdhury pretpostavlja da korištenje pojačanog učenja kod "o serije" može pogoršati probleme koje su drugi modeli uspješnije umanjili naknadnim fazama treniranja, ali ih ni oni nisu potpuno uklonili.
Halucinacije mogu potaknuti krativnost, ali su češće opasne
Halucinacije nekada mogu potaknuti kreativnost, ali su češće opasne. Poseban problem stvaraju u poslovnom svijetu koji traži preciznost. Moguće rješenje za toliko halucinacija je korištenje modela GPT-4o koji može pretraživati internet. U tom pogledu, ostvario je 90 posto točnosti na testu SimpleQA, što sugerira da bi pretraživanje moglo pomoći u smanjenju halucinacija i kod rezonirajućih modela – u slučaju da su korisnici spremni dijeliti svoje podatke s trećim stranama.
POGLEDAJTE VIDEO: Prof. Marko Katić o ratovima budućnosti: 'Avione će zamijeniti AI i bespilotne letjelice'