Belangrijke waarschuwing: Google en Yahoo stellen DMARC verplicht vanaf april 2024.
PowerDMARC

Cyberbeveiligingsrisico's van generatieve AI

Cyberbeveiligingsrisico's van generatieve AI
Leestijd: 6 min

Naarmate de nieuwe kracht van generatieve AI-technologie groeit, nemen ook de generatieve AI-cyberbeveiligingsrisico's toe. Generatieve AI vertegenwoordigt de grens van geavanceerde technologie, een combinatie van Machine Learning (ML) en Kunstmatige Intelligentie (AI).

We staan aan de vooravond van een technologische renaissance waarbij AI-technologieën exponentieel zullen toenemen. De risico's van generatieve AI op het gebied van cyberbeveiliging kunnen echter niet over het hoofd worden gezien. Laten we deze invalshoek verkennen om te begrijpen hoe u de cyberbeveiligingsuitdagingen kunt voorkomen die voortvloeien uit het gebruik en misbruik van Generative AI.

Wat is generatieve AI?

Generatieve AI, kort voor Generative Artificial Intelligence, verwijst naar een klasse kunstmatige intelligentietechnieken die zich richten op het creëren van nieuwe gegevens die lijken op of vergelijkbaar zijn met bestaande gegevens. In plaats van expliciet geprogrammeerd te zijn voor een specifieke taak, leren generatieve AI-modellen patronen en structuren uit de gegevens waarop ze getraind zijn en genereren ze vervolgens nieuwe inhoud op basis van die geleerde kennis.

Het primaire doel van generatieve AI is om gegevens te genereren die niet te onderscheiden zijn van echte gegevens, zodat het lijkt alsof ze door een mens zijn gemaakt of afkomstig zijn van dezelfde distributie als de originele gegevens. Dit vermogen heeft talloze toepassingen in verschillende domeinen, zoals het genereren van natuurlijke taal, beeldsynthese, muziekcompositie, tekst-naar-spraak conversie en zelfs het genereren van video.

Waarom is generatieve AI de volgende grote bedreiging voor cyberveiligheid?

GPT-3, GPT-4 en andere generatieve AI-tools zijn niet immuun voor generatieve AI-cyberbeveiligingsrisico's en cyberbedreigingen. Bedrijven moeten beleid implementeren om aanzienlijke cyberrisico's in verband met generatieve AI te vermijden.

Zoals benadrukt door Terence Jackson, een chief security advisor voor Microsoft, in een artikel voor Forbes, geeft het privacybeleid van platforms zoals ChatGPT aan dat er cruciale gebruikersgegevens worden verzameld, zoals het IP-adres, browserinformatie en browseactiviteiten, die kunnen worden gedeeld met derden.

Jackson waarschuwt ook voor de cyberbeveiligingsrisico's van generatieve AI, waardoor het aanvalsoppervlak wordt vergroot en hackers nieuwe mogelijkheden krijgen om uit te buiten.

Verder, een Wired-artikel uit april de kwetsbaarheden van deze tools, waarmee de cyberrisico's van generatieve AI worden benadrukt.

In slechts een paar uur tijd omzeilde een beveiligingsonderzoeker de veiligheidssystemen van OpenAI en manipuleerde GPT-4, wat de potentiële generatieve AI-cyberbedreigingen en de noodzaak van robuuste cyberbeveiligingsmaatregelen benadrukt.

Onthulling van top 7 risico's van generatieve AI op het gebied van cyberbeveiliging

Generatieve AI is een krachtig hulpmiddel om problemen op te lossen, maar brengt ook een aantal risico's met zich mee. Het meest voor de hand liggende risico is dat het kan worden gebruikt voor kwaadaardige doeleinden, zoals diefstal van intellectueel eigendom of fraude.

Phishing-e-mails maken

Het grootste cyberbeveiligingsrisico van generatieve AI is het creëren van phishing.

De dreiging van phishing is reëel en gaat niet weg.

Nu steeds meer bedrijven e-mail en andere vormen van digitale communicatie gebruiken om hun producten of diensten aan de man te brengen, worden criminelen steeds geraffineerder in hun pogingen om mensen persoonlijke informatie te ontfutselen.

De meest voorkomende zwendelpraktijken worden "phishing" genoemd omdat het vaak gaat om een valse e-mail die wordt verzonden door een vertrouwde bron (zoals je bank) en die een bijlage of link bevat die er legitiem uitziet, maar in werkelijkheid leidt naar een valse website waar je je gegevens invoert om toegang te krijgen tot je account.

Modelmanipulatie en -vergiftiging

Een belangrijk generatief AI-cyberbeveiligingsrisico is modelmanipulatie en -vergiftiging. Bij dit type aanval wordt een bestaand model gemanipuleerd of gewijzigd zodat het verkeerde resultaten oplevert.

Een aanvaller kan bijvoorbeeld een afbeelding veranderen zodat deze lijkt op een andere afbeelding uit je database in plaats van wat het is. De aanvaller kan deze gemanipuleerde afbeeldingen vervolgens gebruiken als onderdeel van zijn aanvalsstrategie tegen je netwerk of organisatie.

Aanvallen door tegenstanders

Aanvallen van tegenstanders op algoritmen voor machinaal leren komen steeds vaker voor, omdat hackers de zwakke plekken van deze systemen proberen uit te buiten.

Het gebruik van tegenvoorbeelden - een aanval die ervoor zorgt dat een algoritme een fout maakt of gegevens verkeerd classificeert - bestaat al sinds de begindagen van AI-onderzoek.

Echter, naarmate aanvallen van tegenstanders geavanceerder en krachtiger worden, bedreigen ze alle soorten machine-leersystemen, inclusief generatieve modellen of chatbots.

Inbreuken op gegevensprivacy

Een veelvoorkomend probleem met generatieve modellen is dat ze onbedoeld gevoelige gegevens over individuen of organisaties kunnen onthullen.

Een organisatie kan bijvoorbeeld een afbeelding creëren met generatieve modellen die per ongeluk vertrouwelijke informatie over haar klanten of werknemers onthult.

Als dit gebeurt, kan dit leiden tot privacyschendingen en rechtszaken voor schadevergoeding.

Deepfakes en synthetische media

Generatieve modellen kunnen ook worden gebruikt voor snode doeleinden door nepvideo's en -audio-opnames te genereren die kunnen worden gebruikt in deepfakes (nepvideo's) of synthetische media (nepnieuws).

De technologie achter deze aanvallen is relatief eenvoudig: iemand heeft toegang nodig tot de juiste dataset en wat basissoftwaretools om te beginnen met het maken van kwaadaardige inhoud.

Diefstal van intellectueel eigendom

Diefstal van intellectueel eigendom is tegenwoordig een van de grootste zorgen in de technologie-industrie en zal alleen maar toenemen naarmate kunstmatige intelligentie geavanceerder wordt.

Generatieve AI kan valse gegevens genereren die er voor mensen authentiek en acceptabel uitzien.

Dit gegevenstype kan worden gebruikt in verschillende sectoren, waaronder gezondheidszorg, financiën, defensie en overheid. Het kan zelfs nepaccounts op sociale media maken of zich online voordoen als een individu.

Kwaadwillig gebruik van gegenereerde inhoud

Generatieve AI kan ook inhoud manipuleren door de betekenis of context van woorden of zinnen in tekst of afbeeldingen op een webpagina of sociale-mediaplatform te veranderen.

Bijvoorbeeld, als je een applicatie gebruikt die automatisch bijschriften genereert voor foto's zonder dat menselijke tussenkomst nodig is. Dan zou iemand het onderschrift kunnen veranderen van "een witte hond" in "een zwarte kat" zonder iets aan de foto zelf te veranderen (alleen door het onderschrift te bewerken).

Hoe uw verdediging te versterken tegen generatieve AI cyberbeveiligingsrisico's

Als antwoord op deze toenemende bezorgdheid moeten organisaties hun verdediging tegen deze risico's versterken.

Hier volgen enkele tips om dat te doen:

Overschakelen naar DMARC

DMARC is een e-mailverificatieprotocol dat helpt bij het voorkomen van e-mailspoofing en phishingaanvallen die zich voordoen als je eigen domein.

Door een DMARC-analysatorkunnen organisaties ervoor zorgen dat alleen geautoriseerde afzenders hun domein kunnen gebruiken voor e-mailcommunicatie, waardoor de risico's van door AI gegenereerde phishingmails worden geminimaliseerd.

DMARC biedt extra beschermingslagen door domeineigenaren in staat te stellen rapporten over de e-mailaflevering te ontvangen en de nodige maatregelen te nemen om de e-mailbeveiliging te verbeteren, en zo als schild te fungeren tegen generatieve AI-cyberbeveiligingsrisico's.

Je moet ofwel SPF of DKIM of beide (aanbevolen) implementeren als voorwaarde voor de implementatie van DMARC.

Beveiligingsaudits uitvoeren

Een andere manier om te voorkomen dat hackers toegang krijgen tot je systeem is het uitvoeren van cyberbeveiligingsaudits.

Deze audits helpen bij het identificeren van mogelijke zwakke punten in uw systeem en stellen voor hoe u deze kunt verhelpen voordat het grote problemen worden (zoals malware infecties).

Training op tegenspraak

Adversariële training is een manier om een adversariale aanval te simuleren en het model te versterken. Het maakt gebruik van een tegenstander (of aanvaller) die het systeem voor de gek probeert te houden door het verkeerde antwoorden te geven. Het doel is om uit te vinden hoe het model zal reageren en wat zijn beperkingen zijn, zodat we robuustere modellen kunnen ontwerpen.

Robuuste kenmerkextractie

Een andere oplossing is Robust Feature Extraction (RFE). RFE gebruikt deep learning om relevante kenmerken uit ruwe afbeeldingen te extraheren. De techniek is schaalbaar en kan worden gebruikt op grote datasets. Het kan ook worden gecombineerd met andere technieken, zoals Verification Through Sampling (VTS) en Outlier Detection (OD), om de nauwkeurigheid van de extractie van kenmerken te verbeteren.

Veilige modelarchitectuur

Secure Model Architecture (SMA) maakt gebruik van een veilige modelarchitectuur om aanvallen te voorkomen die misbruik maken van kwetsbaarheden in softwarecode, gegevensbestanden of andere componenten van een AI-systeem. Het idee achter SMA is dat een aanvaller een kwetsbaarheid in de code moet vinden in plaats van alleen een zwakte in het systeem zelf uit te buiten. Het gebruik van uitgebreide auditdiensten voor softwarecodes is van cruciaal belang voor het identificeren en beperken van kwetsbaarheden in AI-systemen, waardoor de integriteit en veiligheid van generatieve AI-technologieën tegen geavanceerde cyberdreigingen wordt gewaarborgd.

Regelmatige modelcontrole

Model auditing is al vele jaren een essentieel onderdeel van cyberbeveiliging. Het houdt in dat de modellen die in een systeem worden gebruikt, worden onderzocht om er zeker van te zijn dat ze degelijk en up-to-date zijn. Model auditing kan ook worden gebruikt om kwetsbaarheden in modellen op te sporen en modellen te identificeren die mogelijk zijn beschadigd of gewijzigd door hackers.

Invoervalidatie en filteren

Invoervalidatie is een van de belangrijkste stappen die een modelontwikkelaar kan nemen voordat hij zijn model inzet in productieomgevingen. Invoervalidatie zorgt ervoor dat gegevens die in een model worden ingevoerd niet onnauwkeurig zijn of kwaadwillig worden gewijzigd door hackers die kwetsbaarheden in het systeem proberen uit te buiten. Met invoerfiltering kunnen ontwikkelaars specificeren welke gegevenstypen door hun modellen moeten worden toegelaten en tegelijkertijd voorkomen dat andere soorten gegevens ook worden doorgelaten.

Laatste woorden

Hoewel de technologie veel voordelen en vooruitgang biedt, opent het ook de deur naar potentiële kwetsbaarheden en bedreigingen.

Het vermogen van generatieve AI om overtuigende nepafbeeldingen, -video's en -teksten te maken, leidt tot bezorgdheid over identiteitsdiefstal, misinformatiecampagnes en fraude.

Bovendien kan kwaadwillig gebruik van generatieve AI bestaande cyberbedreigingen, zoals phishingaanvallen en social engineering, versterken.

Omdat deze technologie zich blijft ontwikkelen, moeten organisaties en individuen prioriteit geven aan cyberbeveiligingsmaatregelen, waaronder robuuste authenticatie, continue monitoring en regelmatige kwetsbaarheidsbeoordelingen, om de risico's van generatieve AI te beperken.

Door dit te doen, kunnen we het potentieel van deze technologie benutten en tegelijkertijd de inherente uitdagingen op het gebied van cyberbeveiliging afwenden.

Mobiele versie afsluiten