Ontwikkelaars maken in toenemende mate gebruik van AI om code te inspecteren.

0

 

Operationele efficiëntie en beveiliging blijken de voornaamste prioriteiten te zijn, zoals blijkt uit een recente enquête van GitLab. Deze enquête onthult dat kunstmatige intelligentie (AI) wordt ingezet om deze cruciale zaken aan te pakken.

De studie van GitLab benadrukt met name de waarde van DevSecOps, een aanpak waarbij ontwikkelings-, beveiligings- en operationele teams nauwer samenwerken. Het idee hierachter is om kwetsbaarheden al in een vroeg stadium van het ontwikkelingsproces op te sporen, mogelijk zelfs tijdens het schrijven van de code. Deze studie werd in maart uitgevoerd en betrok een diverse groep van vijfduizend respondenten.

Opvallend is dat 56 procent van de ondervraagde bedrijven aangeeft een DevSecOps-strategie te hanteren, een stijging ten opzichte van 47 procent in 2022. Driekwart van de beveiligingsprofessionals geeft aan de komende jaren nauwer te willen samenwerken met software-ontwikkelaars. Dit betekent dat ontwikkelaars een grotere rol spelen in cybersecurity, en beveiligingsexperts erkennen dat meer dan 25 procent van de kwetsbaarheden in softwarecode wordt opgemerkt door ontwikkelaars.

Ondanks deze positieve ontwikkelingen zijn er nog uitdagingen. Hoewel beveiligings- en ontwikkelingsteams de waarde inzien van samenwerking, blijken ze nog steeds vaak naar elkaar te wijzen als het gaat om de verantwoordelijkheid. Een van de voornaamste frustraties is dat beveiligingstests vaak te laat in het ontwikkelingsproces worden uitgevoerd. Bovendien wordt een overvloed aan tools gezien als een obstakel voor het tijdig opsporen van kwetsbaarheden. Gemiddeld hebben beveiligingsprofessionals zes tot tien tools tot hun beschikking, terwijl ontwikkelaars en operationele teams zich doorgaans tot vijf tools beperken. Het beheer van deze tools kost medewerkers veel tijd, wat ten koste gaat van de kwaliteit van de beveiliging.

Daarom zoeken DevSecOps-teams in het steeds complexere IT-landschap naar nieuwe technologieën om hun doelstellingen te behalen. Dit is waar AI in beeld komt, van een ‘nice-to-have’ naar een ‘must-have’. Slechts vijf procent van de respondenten geeft aan op geen enkele manier gebruik te maken van AI- of ML-technologie in het reviewproces.

AI wordt vooral ingezet om code te controleren, waarbij 62 procent van de respondenten aangeeft dat AI code controleert op fouten, en bij 36 procent gebeurt dit zelfs voordat een menselijke blik erop werpt. Daarnaast zet 53 procent AI in bij het testen van code.

Hoewel AI onmisbaar is geworden, brengt het ook uitdagingen met zich mee. Bedrijven zoals Amazon en Samsung hebben beperkingen opgelegd aan het gebruik van AI, omdat ontwikkelaars interne broncodes prijsgaven voor beoordeling. Daarnaast is de output van door AI gegenereerde code niet altijd volledig betrouwbaar. Hoewel AI een waardevolle ondersteuning biedt in het ontwikkelingsproces, blijft menselijk oordeel van cruciaal belang.