Anthropics nye store språkmodell, kjent under arbeidsnavnet Mythos, har skapt bølger i sikkerhetsmiljøet. Modellen beskrives av både entusiaster og kritikere som potensielt banebrytende — og ifølge Wired er frykten for misbruk allerede utbredt. Men de som følger feltet tett, sier at den virkelige utfordringen ikke handler om én enkelt modell.
En vekker for hele bransjen
Ifølge Wired er det bred enighet blant sikkerhetseksperter om at Mythos sin ankomst først og fremst bør fungere som en oppvekker for AI-utviklere som over lang tid har prioritert funksjonalitet foran sikkerhet. Argumentet er ikke nytt, men det får fornyet tyngde i møte med stadig kraftigere modeller.
Det underliggende problemet er strukturelt: sikkerhetsarbeid har tradisjonelt kommet sent inn i utviklingssyklusen, om det i det hele tatt har kommet.
Den virkelige risikoen er ikke én modell — det er et helt økosystem av AI-verktøy bygget uten sikkerhet i kjernen.

Markedet vokser — men også truslene
Tallene tegner et tvetydig bilde. AI-drevne forsvarsløsninger er i sterk vekst, men angriperne utnytter de samme verktøyene.
I følge markedsanalyser vokser sektoren med en årlig rate på over 24 prosent. Samtidig dokumenterer CrowdStrike i sin 2024 Global Threat Report at andelen malware-frie angrep — der tradisjonelle antivirusløsninger ofte ikke slår til — økte fra 71 prosent i 2022 til 75 prosent i 2023. SlashNexts phishing-rapport for 2024 viser enda mer dramatiske tall: totalt phishing-volum steg med 202 prosent, mens credential phishing — angrep rettet mot innloggingsopplysninger — økte med hele 703 prosent i siste halvdel av fjoråret.

Forsvar og angrep i samme verktøykasse
Den doble naturen til kraftige AI-modeller er kjernen i debatten. På den ene siden gir AI forsvarere muligheten til å analysere enorme datamengder, oppdage anomalier og respondere på trusler langt raskere enn mennesker alene kan. IBMs rapport fra 2024 viser at organisasjoner som bruker AI og automatisering aktivt i sikkerhetsarbeidet, i gjennomsnitt reduserte kostnadene ved datainnbrudd med 2,2 millioner dollar sammenlignet med organisasjoner uten slik teknologi — og de klarte å begrense skadeomfanget 127 dager raskere.
På den andre siden senker AI terskelen for at trusselaktører med begrenset teknisk bakgrunn kan gjennomføre sofistikerte operasjoner. CrowdStrikes sikkerhetssjef Shawn Henry har pekt på at AI gir kriminelle «et nytt våpen» som gjør avansert hacking tilgjengelig for langt flere, ifølge forskningskilder i feltet.
Generativ AI: Fra eksperiment til mainstream
Generativ AI beveget seg i 2024 fra pilotprosjekter til reell driftsetting i mange virksomheter. Innen sikkerhetsoperasjoner har dette betydd at analytikere kan stille spørsmål på vanlig norsk eller engelsk og få meningsfull analyse tilbake — i stedet for å grave manuelt i logger.
Gartner plasserte imidlertid generativ AI i sin 2024 Hype Cycle-rapport på toppen av «inflated expectations»-kurven, og analytiker Arun Chandrasekaran advarte om at en viss ernøktring er uunngåelig. En ISC2-undersøkelse fra februar 2024 viste at 88 prosent av sikkerhetsekspertene allerede merker at AI påvirker jobben deres, mens 56 prosent tror teknologien vil gjøre deler av arbeidsoppgavene overflødige.
Strukturell svakhet i kjernen
Det Mythos-debatten egentlig avdekker, ifølge Wired, er at AI-modeller i seg selv kan være sårbare mål — ikke bare verktøy for angrep. Beslutningsprosessene er ofte ugjennomsiktige, og svakheter i modellene kan utnyttes på måter utviklerne ikke forutså.
Spørsmålet bransjen nå stilles overfor, er om Mythos og modeller av lignende kaliber vil fungere som den nødvendige katalysatoren for å tvinge frem et reelt sikkerhetsskifte — eller om historien vil gjenta seg, og sikkerhet igjen skyves til bunnen av prioriteringslisten.
