Skip to main content

OpenAI on ilmoittanut, että sen uusin tekoälymalli, o3, tuottaa enemmän virheellisiä tai keksittyjä väittämiä (”hallusinaatioita”) verrattuna aiempaan o1-malliin. Tämä johtuu siitä, että o3-malli tekee enemmän väittämiä kokonaisuudessaan, mikä johtaa sekä suurempaan määrään oikeita että virheellisiä väittämiä.

OpenAI:n mukaan o3-malli on suunniteltu parantamaan päättelykykyä ja tuottamaan tarkempia vastauksia. Kuitenkin lisääntynyt väittämien määrä tarkoittaa myös suurempaa riskiä virheellisten tietojen tuottamiseen. Tämä on tärkeä huomio käyttäjille, jotka luottavat tekoälymalleihin tiedonhankinnassa ja päätöksenteossa.

OpenAI jatkaa mallin kehittämistä ja pyrkii vähentämään virheellisten väittämien määrää tulevissa päivityksissä. Käyttäjien on kuitenkin tärkeää olla tietoisia näistä rajoituksista ja tarkistaa tekoälyn tuottamat tiedot luotettavista lähteistä.

Lähteet:

https://www.theverge.com/news/652261/openai-says-its-o3-model-makes-more-hallucinations-than-o1

https://openai.com/index/deep-research-system-card/