Vaarallisista komennoista löytyy niin ikään ohjeistus.
System prompt on käytännössä ”ohjeistuskerros”, joka annetaan tekoälylle ennen kuin se alkaa vastata käyttäjälle. Se on kuin sääntökirja tai rooliohje, joka määrittää miten malli käyttäytyy keskustelussa.
OpenAI:n Codex-työkalun ohjeistus on herättänyt ihmetystä maailmalla. Ohjeistus kieltää mallia toistuvasti puhumasta esimerkiksi menninkäisistä, peikoista tai jättiläisistä, elleivät ne ole täysin välttämättömiä käyttäjän kysymyksen kannalta. Ohjeistuksessa usein esitettyihin kieltoihin kuuluvat myös hieman tavallisemmat otukset, eli pesukarhut ja kyyhkyset.
Kieltoa ei löydy vanhempien mallien ohjeista, mikä voi viitata siihen, että GPT-5.5:llä on ollut taipumus tuoda näitä olentoja keskusteluihin satunnaisesti – tai jollain logiikalla, jossa ei ole järkeä.
Ohjeissa kielletään myös emojien ja ajatusviivojen käyttö ilman lupaa sekä vaaralliset komennot kuten ”git reset –hard”, ellei käyttäjä sellaisia erikseen pyydä.
Mallia kehotetaan myös olemaan lämmin ja yhteistyökykyinen. Tavoitteena on, että käyttäjä tuntee kohtaavansa ”toisen subjektin” pelkän peilin tai työkalun sijaan.