MOŽE BITI OPASNO /

Često koristite Chat GPT? Budite oprezni, sve više 'halucinira', a ne zna se zašto

Image
Foto: Profimedia

Model 04-mini pokazao se vrlo lošim od drugih, prema testu PersonQa koji procjenjuje točnost znanja o ljudima, imao je 48 posto halucinacija

19.5.2025.
15:32
Profimedia
VOYO logo

Iako umjetna inteligencija "razmišlja" i zaključuje puno brže od čovjeka, na nju se, barem za sada, ne možemo stopostotno osloniti. AI modeli o3 i o4-mini iz OpenAI-ja vrhunac su tehnološkog razvoja, ali se i dalje suočavaju s ozbiljnim izazovima – ponajprije s takozvanim "halucinacijama".

Prema pisanju portala Geek.hr, ti modeli generiraju netočne ili izmišljene informacije i to čak čine više nego njihovi prethodnici. Riječ je o modelima o3 i o4-mini koji pripadaju skupini "rezonirajućih modela".

Zabrinjava to što OpenAI, istraživačka organizacija za umjetnu inteligenciju - ne nudi jasno objašnjenje zašto svaki novi model sve više halucinira.

Image
ANALIZA ODGOVORA /

Psiholog otkrio možemo li umjetnu inteligenciju koristiti u borbi protiv depresije

Image
ANALIZA ODGOVORA /

Psiholog otkrio možemo li umjetnu inteligenciju koristiti u borbi protiv depresije

Model 04-mini imao 48 posto halucinacija

Ne može se reći da baš svuda "šteka". Primjerice, ti modeli koje koristi umjetna inteligencija pokazali su se vrlo sposobnima u rješavanju matematičkih zadataka i kodiranja. Ipak, što više tvrdnji daju, uz točne informacije - sve više dodaju i netočne te izmišljaju odgovore.

Tekst se nastavlja ispod oglasa

Model 04-mini pokazao se vrlo lošim od drugih, prema testu PersonQa koji procjenjuje točnost znanja o ljudima, imao je 48 posto halucinacija.

Tekst se nastavlja ispod oglasa

Bivši zaposlenik OpenAI-ja Neil Chowdhury pretpostavlja da korištenje pojačanog učenja kod "o serije" može pogoršati probleme koje su drugi modeli uspješnije umanjili naknadnim fazama treniranja, ali ih ni oni nisu potpuno uklonili.

Halucinacije mogu potaknuti krativnost, ali su češće opasne

Halucinacije nekada mogu potaknuti kreativnost, ali su češće opasne. Poseban problem stvaraju u poslovnom svijetu koji traži preciznost. Moguće rješenje za toliko halucinacija je korištenje modela GPT-4o koji može pretraživati internet. U tom pogledu, ostvario je 90 posto točnosti na testu SimpleQA, što sugerira da bi pretraživanje moglo pomoći u smanjenju halucinacija i kod rezonirajućih modela – u slučaju da su korisnici spremni dijeliti svoje podatke s trećim stranama.

POGLEDAJTE VIDEO: Prof. Marko Katić o ratovima budućnosti: 'Avione će zamijeniti AI i bespilotne letjelice'

Tekst se nastavlja ispod oglasa
Tekst se nastavlja ispod oglasa
fnc
NOVI SHOW
VOYO logo
Još iz rubrike
OSZAR »