OpenAI startar ett nytt säkerhetstest för GPT-5.5 där oberoende forskare får försöka hitta ett så kallat universellt genombrott i modellens bioskydd. Det handlar enkelt uttryckt om att hitta en metod som får modellen att ge svar den egentligen ska stoppa.
Initiativet kallas ett buggbelöningsprogram och är inriktat på biologirelaterade risker. OpenAI säger att deltagarna ska försöka klara en femfrågeutmaning som testar modellens spärrar för känsliga biologiska frågor. Den som lyckas först kan få en belöning, och mindre ersättning kan också delas ut för delvisa framsteg.
För vanliga användare betyder det här inte en ny funktion i ChatGPT, utan ett försök att göra framtida modeller säkrare innan de används bredare. Sådana tester används ofta för att hitta svagheter i förväg, i stället för att upptäcka dem först när tekniken redan har nått ut till många.
OpenAI uppger också att deltagarna måste vara granskade forskare och att arbetet sker under sekretess. Det visar hur känsligt området är: ju mer kapabel en AI-modell blir, desto viktigare blir det att testa var gränserna går innan modellen används i skarpa sammanhang.
Nyheten passar också in i en större trend där AI-bolag allt oftare lyfter säkerhet som en del av produktutvecklingen. I praktiken handlar det om att bygga bättre skydd runt systemen, inte bara att göra dem smartare.