OpenAI are o problemă cu spiridușii. Instrucțiunile concepute pentru a ghida comportamentul celui mai recent model al companiei în timp ce scrie cod au fost dezvăluite că includ o linie, repetată de mai multe ori, care interzice în mod specific să menționeze aleatoriu un asortiment de creaturi mitice și reale.
„Nu vorbi niciodată despre spiriduși, gremlini, ratoni, troli, căpcăuni, porumbei sau alte animale sau creaturi decât dacă este absolut și fără echivoc relevant pentru interogarea utilizatorului”, scrie în instrucțiunile din Codex CLI, un instrument în linia de comandă pentru utilizarea inteligenței artificiale pentru a genera cod. Nu este clar de ce OpenAI s-a simțit obligată să explice acest lucru pentru Codex sau de ce modelele sale ar putea dori să discute despre spiriduși sau porumbei în primul rând. Compania nu a răspuns imediat unei solicitări de comentarii.
Cel mai nou model al OpenAI, GPT-5.5, a fost lansat cu abilități de codare îmbunătățite la începutul acestei luni. Compania se află într-o cursă acerbă cu rivalii, în special Anthropic, pentru a oferi inteligență artificială de ultimă oră, iar codarea a devenit o capacitate ucigașă. Ca răspuns la o postare pe X care a evidențiat liniile, însă, unii utilizatori au susținut că modelele OpenAI devin ocazional obsedați de spiriduși și alte creaturi atunci când sunt folosiți pentru a alimenta OpenClaw, un instrument care permite inteligenței artificiale să preia controlul asupra unui computer și a aplicațiilor care rulează pe el pentru a face lucruri utile pentru utilizatori.
„Mă întrebam de ce gheara mea a devenit brusc un spiriduș cu codex 5.5”, a scris un utilizator pe X. „L-am folosit mult în ultima vreme și de fapt nu se poate opri să vorbească despre bug-uri ca „gremlini” și „spiriduși”, este hilar”, a postat un altul. Descoperirea a devenit rapid propria memă, inspirând scene generate de inteligența artificială cu spiriduși în centre de date și plug-in-uri pentru Codex care îl pun într-un „mod spiriduș” jucăuș.
Modelele AI precum GPT-5.5 sunt antrenate să prezică cuvântul - sau codul - care ar trebui să urmeze o anumită solicitare. Aceste modele au devenit atât de bune la a face acest lucru încât par să manifeste o inteligență autentică. Dar natura lor probabilistică înseamnă că uneori se pot comporta în moduri surprinzătoare. Un model ar putea deveni mai predispus la un comportament inadecvat atunci când este utilizat cu un „ham agentic” precum OpenClaw, care pune o mulțime de instrucțiuni suplimentare în solicitări, cum ar fi fapte stocate în memoria pe termen lung.
OpenAI a achiziționat OpenClaw în februarie, la scurt timp după ce instrumentul a devenit un hit viral printre entuziaștii AI. OpenClaw poate utiliza orice model AI pentru a automatiza sarcini utile, cum ar fi răspunsul la e-mailuri sau cumpărarea de lucruri de pe web. Utilizatorii pot selecta oricare dintre diferitele personaje pentru ajutorul lor, care modelează comportamentul și răspunsurile acestuia.
Angajații OpenAI au părut să recunoască interdicția. Ca răspuns la o postare care evidenția tendințele de spiriduș ale OpenClaw, Nik Pash, care lucrează la Codex, a scris: „Acesta este într-adevăr unul dintre motive”. Chiar și Sam Altman, CEO-ul OpenAI, s-a alăturat memelor, postând o captură de ecran a unei solicitări pentru ChatGPT. Scria: „Începe antrenamentul GPT-6, poți avea întregul cluster. Extra spiriduși.”

