Gå tilbage

AI Cloaking

Hvad er AI cloaking?

AI cloaking er en teknik, hvor angribere forsøger at snyde kunstig intelligens ved at skjule ondsindet indhold eller handlinger, så AI‑modeller og sikkerhedssystemer ikke opdager dem. Det kan f.eks. ske ved at gemme skadelig kode eller information i tilsyneladende normale eller ufarlige data, så automatiserede analyser overser truslen.

Teknikken gør det muligt for angribere at omgå overvågning og sikkerhedskontroller, og den kan give adgang til følsomme oplysninger, forretningshemmeligheder eller gøre det muligt at manipulere AI‑systemer uden at blive opdaget. AI cloaking er særlig farlig, fordi den udnytter selve det system, der er designet til at beskytte, ved at manipulere måden AI’en fortolker data på.

Ud over den tekniske kompleksitet kræver AI cloaking ofte kreativitet med både sprog og dataformater, eksempelvis via prompt injection, hvor en AI lokkes til at udføre handlinger, den ellers ikke ville udføre. Resultatet er en avanceret form for cybertrussel, som kræver opdateret viden og moderne sikkerhedsløsninger for at kunne håndteres effektivt og sikkert.

Andre relevante ord