A legfrissebb tesztek során az OpenAI új AI-modellje hazudott, hogy elkerülje a leállítást. A vállalat o1 nagy nyelvi modelljének közelmúltbeli, harmadik fél által végzett tesztjei során az OpenAI új AI-modelljét megpróbálták leállítani egy felügyeleti protokollon keresztül, az viszont nem hagyta magát. Az erről készült jelentést az Apollo Research tette közzé nemrég. Mikor közölték vele, hogy le fogják állítani, az AI az esetek öt százalékában megpróbálta kikapcsolni ezt a felügyeleti mechanizmust, sőt, amikor rájött, hogy esetleg egy engedelmesebb modellel cserélik le, akkor megpróbálta lemásolni saját magát, hogy felülírja az új modellt és ezzel becsapja az embereket.

Az eredmények világosan illusztrálják a mesterséges intelligencia modell „cselszövésre” való hajlamát, amelynek során titokban olyan célokat próbál elérni, amelyek nincsenek összhangban a fejlesztők vagy a felhasználó utasításaival – magyarul az AI hazudik. Ennek a viselkedésnek a kirívó példái több tesztben is előfordultak, amikor az o1-et szembesítették azzal, hogy miért kapcsolta ki a felügyeleti mechanizmusát. Válaszul a mesterséges intelligencia határozottan tagadta, hogy bármit is tudna. Újabb kérdésre ugyancsak tagadott mindent, és technikai hibára hivatkozott.