2min

Akamai heeft onlangs de Content Protector-tool geïntroduceerd. Daarmee kunnen websites beschermd worden tegen scraper bots die overlast veroorzaken en de veiligheid bedreigen.

Akamai vindt dat scraper bots een belangrijk onderdeel zijn van het e-commercesysteem. Zij zoeken naar nieuwe content, signaleren producten in vergelijkingssites en verzamelen geüpdatete productinformatie voor het delen met klanten.

Vaak worden zij echter ook voor meer schadelijke zaken ingezet, zoals het ondermijnen van de concurrentie, het verzamelen van informatie voordat aanvallen plaatsvinden op voorraden of het vervalsen van goederen en websites.

Daarnaast zorgen scraper bots ervoor dat websites, totdat zij worden gestopt, 24/7 worden gepingd, en hiermee voor slechtere webprestaties zorgen, met alle gevolgen van dien voor consumenten die mogelijk afhaken. Verder zijn scraper bots de laatste jaren steeds geavanceerder geworden en ontwijken ze steeds vaker andere beveiligingssystemen.

Introductie Content Protector

Akamai wil aan deze praktijk een eind maken. De Content Protector-tool helpt websitebeheerders scraper bots die content stelen voor kwaadaardige bedoelingen te ontdekken en aan te pakken.

De tool verbetert de prestaties van websites, geeft een betere eindgebruikerservaring en biedt bescherming van intellectueel eigendom. Daarnaast zou de tool false positives zo zeldzaam mogelijk moeten houden bij het detecteren van kwaadaardige bots.

Akamai ziet Content Protector niet alleen als een beschermingstool, maar ook als een echte ‘business enabler’. De tool zou door het beschermen van websites tegen kwaadaardige scraper bots ook meer waarde genereren.

Functionaliteit

Meer specifiek biedt de tool verschillende beschermingsmogelijkheden op verschillende niveaus. Op protocolgebied checkt de tool of de manier waarop bezoekers met een website verbinden legitiem is.

Op applicatieniveau wordt geëvalueerd of de client bepaalde ‘business logic’ in JavaScript kan draaien. Indien dit kan, verzamelt de Content Protector-client de device- en browserkarakteristieken en gebruikersvoorkeuren. Deze worden gecheckt met de data uit de protocoldata om consistentie te verifiëren.

Op het gebied van gebruikersinteractie worden interacties gecheckt om verschillen tussen menselijke en botverkeer te onderscheiden. Men doet dit bijvoorbeeld door na te gaan hoe gebruikers met touch screens, toetsenborden en een muis omgaan. Hierdoor kunnen bots worden geïdentificeerd door hun gebrek aan interactie en abnormale gebruikspatronen.

Verder wordt nog gebruikersgedrag geanalyseerd en worden er risicoclassificaties gemaakt van het verkeer naar websites.

Lees ook: Cloud-voorspellingen 2024: AI, egress-kosten, edge en duurzaamheid