Akamai Technologies, Inc. ha annunciato la disponibilità di Content Protector, un prodotto che blocca gli attacchi di scraping senza bloccare il buon traffico di cui le aziende hanno bisogno per migliorare il loro business. I bot di scraping sono una parte critica e spesso produttiva dell'ecosistema del commercio. Questi bot cercano nuovi contenuti, evidenziano i prodotti nei siti di confronto e raccolgono informazioni aggiornate sui prodotti da condividere con i clienti.

Purtroppo, gli scraper vengono utilizzati anche per scopi dannosi, come la sottoquotazione della concorrenza, la sorveglianza prima degli attacchi di accaparramento delle scorte e la contraffazione di prodotti e siti web. Gli scrapers, inoltre, fanno il ping dei siti 24 ore su 24, 7 giorni su 7, se non vengono fermati, per cui possono degradare le prestazioni del sito, il che a sua volta frustra i consumatori e li induce ad abbandonare le visite.

Inoltre, negli ultimi anni gli scrapers sono diventati molto più evasivi e sofisticati. Akamai Content Protector aiuta a rilevare e a mitigare gli scrapers evasivi che rubano i contenuti per scopi dannosi. Consente di migliorare le prestazioni del sito, di migliorare l'esperienza dell'utente e di proteggere la proprietà intellettuale, facilitando al contempo rilevamenti significativamente migliori e meno falsi negativi, senza aumentare il tasso di falsi positivi.

Il prodotto è progettato per le aziende che devono proteggere la loro reputazione e il loro potenziale di guadagno. Offre rilevamenti su misura che includono: Valutazione a livello di protocollo: Il fingerprinting del protocollo verifica il modo in cui i visitatori si collegano al suo sito per assicurarsi che siano legittimi. Valuta il modo in cui il client stabilisce la connessione con il server nei diversi livelli del modello OSI (Open Systems Interconnection)?

verificando che i parametri negoziati siano in linea con quelli attesi dai browser web e dalle applicazioni mobili più comuni. Valutazione a livello di applicazione: Valuta se il cliente può eseguire una logica aziendale scritta in JavaScript. Quando il client esegue JavaScript, raccoglie le caratteristiche del dispositivo e del browser e le preferenze dell'utente.

Questi vari punti di dati vengono confrontati e incrociati con i dati a livello di protocollo per verificare la coerenza. Interazione con l'utente: Analizza le interazioni degli utenti per distinguere il traffico umano da quello dei bot. Valuta il modo in cui gli utenti interagiscono con dispositivi come touch screen, tastiere e mouse, identificando i bot attraverso la loro mancanza di interazione o modelli di utilizzo anomali.

Comportamento degli utenti: Monitora il comportamento dei visitatori sul suo sito web per identificare modelli insoliti indicativi di bot. Classificazione del rischio: Fornisce una classificazione deterministica e azionabile del traffico a basso, medio o alto rischio, in base alle anomalie riscontrate durante la valutazione.