AI verandert de wereld van cybersecurity ingrijpend
Gepubliceerd op 26/08/2025 in Experten vertellen
Artificiële intelligentie heeft een aanzienlijke impact op cybersecurity. Terwijl cybercriminelen hun aanvallen intensiveren en automatiseren, integreren organisaties steeds vaker AI in hun verdedigingsecosysteem.
AI heeft de dreigingen voor cybersecurity vergroot. Omdat cybercriminelen niet langer gehinderd worden door menselijke beperkingen, intensiveren en automatiseren zij hun aanvallen, maken zij meer gebruik van kwetsbaarheden en zetten zij phishing gerichter in. Dit betekent ook dat organisaties AI moeten integreren in hun volledige cybersecurity-ecosysteem om geschikte tegenmaatregelen te kunnen toepassen . De rol en verantwoordelijkheden van CISO’s worden daardoor ingrijpend gewijzigd. Er vindt een verschuiving plaats van reactief naar proactief, met name dankzij threat intelligence en geautomatiseerde loganalyse.
“Phishingaanvallen bijvoorbeeld worden tegenwoordig in meerdere talen en met een steeds verfijnder taalgebruik uitgevoerd”, zegt Fabrice Clément, CISO van Proximus Groep. “AI kijkt niet alleen naar regels, maar ook naar gedragingen, waardoor bedrijven veranderingen in patronen beter kunnen herkennen en processen kunnen automatiseren, zoals het afhandelen van waarschuwingen en het omleiden van potentiële slachtoffers naar waarschuwingspagina’s.”
De effectiviteit van AI vormt een belangrijke uitdaging. Het doel van onze cybersecurity is om doeltreffender te zijn dan onze tegenstanders.
Fabrice Clément, Chief Information Security Officer (CISO) bij Proximus Groep
Een kwestie van effectiviteit
Fabrice is ervan overtuigd dat de effectiviteit van artificiële intelligentie de grootste uitdaging vormt voor CISO’s bij het bestrijden van dreigingen. “Dankzij AI worden menselijke tegenstanders steeds efficiënter. Ze kunnen enorme hoeveelheden data gebruiken, bijvoorbeeld via social engineering of informatie over organisaties, om hun aanvallen preciezer en gerichter uit te voeren. Het doel van onze cybersecurity is om doeltreffender te zijn dan onze tegenstanders.”
De dreiging komt niet langer alleen van groepen cybercriminelen, maar ook van vijandige staten die enorme middelen in technologie kunnen investeren.
Benoît Hespel, Head of AI bij Proximus ADA
Het profiel van cybercriminelen verandert
Vroeger hadden hackers gespecialiseerde vaardigheden nodig, maar dat is veranderd. “Een paar jaar geleden volstond het om ChatGPT te vragen hoe je een keylogger maakt en dan kreeg je de code”, herinnert Benoît Hespel, Head of AI bij Proximus ADA. “Sindsdien zijn er beschermingssystemen ingebouwd in de publieke LLM’s om dit soort misbruik tegen te gaan. Toch blijft de dreiging groeien op het dark web, waar criminelen andere grote taalmodellen creëren, gebruiken en delen om malware te ontwikkelen.”
“Tegenwoordig kan elke kwaadwillende persoon een tool vinden om een aanval uit te voeren. Het resultaat? Meer aanvallers, meer automatisering en meer doelwitten tegelijk, aangestuurd door gespecialiseerde AI-agents.”
AI versterkt offensieve tactieken
Naast het versterken van social engineering, personaliseert AI ook phishing en perfectioneert het deepfakes. “Of het nu gaat om tekst, video, geluid, beeld of QR-codes, het wordt steeds moeilijker om echt van nep te onderscheiden. Sommige bots slagen er zelfs in om in Teams in te loggen, een identiteit te vervalsen en informatie te verzamelen”, benadrukt Benoît. “Bepaalde malware kan zich bovendien aanpassen en leren van de omgeving waarin ze wordt ingezet, waardoor het meer schade veroorzaakt en moeilijker te detecteren is.”
Adversariële aanvallen
Binnen bedrijven worden AI-projecten vaak beheerd door andere teams dan de IT-afdeling. Voor Benoît vormt dit een nieuw kanaal van dreigingen: “AI-modellen worden veel minder gecontroleerd en begeleid dan conventionele IT-projecten. Iemand die toegang heeft tot zo’n model kan het tegen de maker gebruiken, bijvoorbeeld door prompts in grote taalmodellen in te voeren of door de data te vervuilen, zodat het model een bepaald type fraude, activiteit of correlatie niet meer detecteert.” Dit noemt men adversariële AI-aanvallen.
“Het komt voor dat ontwikkelaars aan ChatGPT vragen welke open source-bibliotheek ze moeten gebruiken om een programma te ontwikkelen. ChatGPT geeft dan drie namen, waarvan er één volledig verzonnen is. Dit is het zogenaamde hallucinatieverschijnsel dat inherent is aan LLM’s. Een hacker kan deze fictieve bibliotheek echter creëren en er een achterpoortje of malware in plaatsen. Zodra een ontwikkelaar de bibliotheek installeert, kan de wolf de stal binnendringen.”
Blijf de virale driehoek voor ogen houden. Menselijke en procesmatige aspecten zijn net zo belangrijk als de technologische.
Fabrice Clément, Chief Information Security Officer (CISO) bij Proximus Groep
Defensieve basishygiëne
"Om jezelf te beschermen tegen door AI gegenereerde of versterkte aanvallen blijven de fundamenten van cybersecurity, zoals toegangsbeheer en tweefactorauthenticatie, cruciaal", stelt Fabrice. "Tegelijkertijd moeten we de virale driehoek voor ogen houden. Menselijke en procesmatige aspecten zijn net zo belangrijk als de technologische. Vanuit dit perspectief zijn security by design, kwetsbaarheidsbeheer en back-ups essentieel.”
Fabrice is ervan overtuigd dat men zich ook moet kunnen voorbereiden op aanvallen door te beschikken over een team en systemen voor detectie en incidentrespons, door meer te automatiseren en door gebruik te maken van AI. Het beheren van informatie uit verschillende bronnen is een andere belangrijke offensieve maatregel, die sterk wordt vergemakkelijkt door artificiële intelligentie, meer bepaald door generatieve AI die het mogelijk maakt informatie in te zetten. Tot slot is offensieve verdediging, het aanvallen van de eigen infrastructuur om te controleren op kwetsbaarheden, van groot belang.
Door AI versterkte verdedigingsmechanismen
Artificiële intelligentie versterkt de verdediging op verschillende manieren. Op het gebied van identificatie helpt AI bijvoorbeeld bij het opsporen van kwetsbaarheden in specifieke contexten en bij het opstellen van scenario’s voor penetratietests.
“Op het gebied van bescherming, detectie en incidentrespons kan AI de rol van coach voor professionals vervullen. Een chatbot beantwoordt hun zeer specifieke vragen, rekening houdend met alle beschikbare documentatie. Proximus ADA ontwikkelt momenteel deze AI-coach intern, eerst voor Security Analysts en later voor ontwikkelaars. De coach controleert of hun implementaties, design en oplossingen geen grote beveiligingsrisico’s met zich meebrengen in verhouding tot de geldende richtlijnen.”
“Ten slotte speelt artificiële intelligentie een rol op het gebied van governance, waar ze kan bijdragen aan het waarborgen van naleving van het wettelijke kader.”
In cybersecurity is AI noch goed, noch slecht. Het is de intentie achter het gebruik van dit krachtige hulpmiddel die goed of slecht is.
Benoît Hespel, Head of AI bij Proximus ADA
Proximus zet de toon
De Proximus Groep speelt een voortrekkersrol op het vlak van AI-gebaseerde cybersecurity. “We gebruiken uiteraard AI-agents voor het detecteren van phishing in e-mails, smishing in sms-berichten en fraude via telefoongesprekken”, aldus Fabrice.”
“Wat betreft CLI spoofing gaan we verder dan white- en blacklists. Een AI-model, gebaseerd op een relatief recente geschiedenis, analyseert het gedrag van deze nummers om een betrouwbaarheidscore te geven voor deze CLI’s (calling line identification), waardoor het beheer van fraude tussen operators wordt verbeterd”, voegt Benoît toe.
“Proximus gaat ook zeer ver in de geautomatiseerde analyse van logs. De gegevens van verschillende systemen worden samengebracht om meer correlaties te vinden. Met behulp van algoritmen gebaseerd op grafen worden deze gegevens vervolgens weergegeven als een netwerk om interacties te identificeren en afwijkingen ten opzichte van normaal gedrag te detecteren, waardoor mogelijk verdachte activiteiten aan het licht komen.”
Sensibilisering van het personeel
Binnen het geheel van verdedigingsmaatregelen zijn training en bewustmaking van medewerkers op het gebied van cybersecurity cruciaal. AI maakt een hoge mate van personalisatie van deze trainingen mogelijk. Benoît: “Bij Proximus genereren we al interne phishingcampagnes om personeel te trainen en bewust te maken. In de toekomst, wanneer iemand slachtoffer wordt van een phishingpoging, ontvangt die persoon een e-mail waarin heel precies wordt uitgelegd welke signalen hen hadden kunnen aangeven dat het om phishing ging.”
Deze sterk gepersonaliseerde campagnes met concrete feedback zijn effectiever dan standaardcampagnes. Ze helpen organisaties bij te blijven en verhogen het bewustzijn over deepfakes, zodat gebruikers kritisch blijven nadenken. Doordat de training gamified en interactief is, komt de boodschap beter over en voelen medewerkers zich meer betrokken.
Agentic AI: een trend voor de toekomst
AI-agents zijn LLM’s zoals ChatGPT, maar ze kunnen ook tools gebruiken, bijvoorbeeld door te communiceren met een Outlook-agenda, e-mails te versturen of toegang te krijgen tot een API. Bepaalde taken kunnen volledig worden geautomatiseerd door simpelweg met een AI-agent te praten. “Deze agents hebben een veelbelovende toekomst”, denkt Benoît, “vooral voor het analyseren van correlaties of het reageren op bepaalde incidenten. Door het toezicht te automatiseren kunnen we ons richten op complexere gevallen die altijd menselijke expertise zullen vereisen.”
In cybersecurity is AI noch goed, noch slecht. Het is de intentie achter het gebruik van dit krachtige hulpmiddel die goed of slecht is.
Benoît Hespel, Head of AI bij Proximus ADA
De alomtegenwoordigheid van AI
"In de toekomst dringt AI door in elk aspect van cybersecurity, zowel aan de kant van cybercriminelen als van organisaties”, legt Fabrice uit. “Automatisering wordt steeds verder gesofisticeerd, terwijl ondersteuning en sturing efficiënter worden. Bovendien gaat AI autonomer taken uitvoeren en interageren. Medewerkers kunnen zich daardoor richten op taken met meer toegevoegde waarde, waar menselijke intelligentie het verschil maakt. Daarnaast zien we ook een wedloop in efficiëntie ontstaan, omdat AI ook alomtegenwoordig is aan de kant van de tegenstanders.
De markt voor AI in cybersecurity zal de komende jaren sterk groeien, van meer dan 30 miljard USD in 2024 tot ongeveer 134 miljard USD in 2030.
“Daarom combineert Proximus ADA AI en cybersecurity", voegt Benoît toe. “In cybersecurity is artificiële intelligentie een noodzaak om bij te blijven, terwijl de beveiliging van AI-toepassingen niet lichtvaardig mag worden opgevat. Naarmate AI steeds meer ingeburgerd raakt, wordt het vergelijkbaar met elke andere IT-toepassing en moet het op een passende manier worden beveiligd.”
Omring uzelf met de juiste partners die u kunnen adviseren bij het integreren van AI in uw cybersecurity-ecosysteem.
Fabrice Clément, Chief Information Security Officer (CISO) bij Proximus Groep
Stappenplan en governance
Fabrice raadt bedrijven die AI in hun cybersecuritystrategie willen integreren aan om dit stapsgewijs aan te pakken: “Ik adviseer hen eerst een duidelijke visie op hun behoeften en een roadmap op te stellen. Vervolgens raad ik hen aan om AI-capaciteiten te integreren in hun processen en architectuur, in samenwerking met de juiste partners. Tot slot zijn opleiding van de teams en begeleiding bij de verandering, met een governance die ook ethische aspecten omvat, essentieel.”
“Nu AI steeds toegankelijker wordt, kan iedereen gemakkelijk zijn eigen kleine, specifieke AI-modellen creëren. Deze vorm van shadow AI kan een risico vormen voor de cybersecurity en toegangspoorten naar buiten openen. Dat risico wordt nog groter met de opkomst van agentic AI. Governance is daarom cruciaal”, besluit Benoît.
Klaar om uw cybersecurity te versterken met artificiële intelligentie?
Doe een beroep op de expertise van Proximus NXT om AI in uw cybersecuritystrategie te integreren.
Ontvang 3 interessante inzichten over data-integratie en AI in uw mailbox.
Wij delen graag inspirerende inzichten van onze experten om uw eigen AI-traject optimaal uit te tekenen. Registreer nu en ontvang 3 artikels van onze experten in uw mailbox.
- Waarom uw AI-project ook een dataproject is.
- AI en data-integratie: een onmisbare symbiose
- 7 praktijklessen uit meer dan 150 AI-projecten.
Fabrice Clément is Chief Information Security Officer (CISO) van de Proximus Groep en is verantwoordelijk voor de algemene cybersecuritystrategie van de groep. Hij definieert en implementeert het IT-beveiligingsbeleid, houdt toezicht op het risicomanagement van informatie en ziet toe op de naleving van de regelgeving inzake gegevensbescherming.
Benoît Hespel is Head of AI bij Proximus ADA, het expertisecentrum van Proximus op het gebied van AI en cybersecurity. Benoît beheert en coördineert de ontwikkeling en uitrol van AI-gebaseerde toepassingen en tools, voornamelijk voor interne teams, met als doel operationele processen te optimaliseren of de klantervaring te verbeteren.

