OpenAI har släppt en ny modell som ska hitta och maskera personuppgifter i text. Modellen heter Privacy Filter och är tänkt att hjälpa utvecklare att rensa bort känslig information som namn, e-postadresser, telefonnummer, adresser, kontonummer och hemliga nycklar innan texten används vidare i ett system.
Det här är intressant eftersom många AI-tjänster i dag hanterar stora mängder text. Då ökar också risken att privat information följer med in i loggar, sökningar, utbildningsdata eller interna granskningar. OpenAI säger att modellen kan köras lokalt, alltså på den egna datorn eller i den egna miljön, i stället för att texten måste skickas vidare för rensning.
Enligt OpenAI är Privacy Filter byggd för att arbeta snabbt och i ett enda svep över långa texter. Företaget lyfter också att modellen är öppen att använda och kan finjusteras för olika behov. Det gör den mer intressant för organisationer som vill ha bättre kontroll över hur personuppgifter hanteras i sina AI-system.
I praktiken betyder det här inte att all integritet är löst. OpenAI skriver själv att modellen inte är en anonymiseringslösning och att den fortfarande kan göra fel. Men nyheten pekar på en tydlig riktning: fler AI-verktyg byggs nu med inbyggt skydd för privat information redan från början, i stället för att det läggs på i efterhand.