Orca Security implementa ChatGPT per proteggere il cloud con l’intelligenza artificiale

Dai un’occhiata a tutte le sessioni on-demand dell’Intelligent Security Summit qui.


Proteggere il cloud non è un’impresa facile. Tuttavia, attraverso l’uso dell’intelligenza artificiale e dell’automazione, con strumenti come ChatGPT, i team di sicurezza possono lavorare per semplificare i processi quotidiani per rispondere agli incidenti informatici in modo più efficiente.

Un provider che esemplifica questo approccio è la società di sicurezza informatica cloud con sede in Israele Orca Security, che oggi ha raggiunto una valutazione di 1,8 miliardi di dollari nel 2021. Oggi Orca ha annunciato che sarebbe stata la prima società di sicurezza cloud a implementare un’estensione ChatGPT. L’integrazione elaborerà gli avvisi di sicurezza e fornirà agli utenti istruzioni dettagliate per la correzione.

Più in generale, questa integrazione illustra come ChatGPT può aiutare le organizzazioni a semplificare i flussi di lavoro delle operazioni di sicurezza, in modo che possano elaborare avvisi ed eventi molto più velocemente.

Per anni, i team di sicurezza hanno lottato con la gestione degli avvisi. In effetti, la ricerca mostra che il 70% dei professionisti della sicurezza riferisce che le loro vite domestiche sono influenzate emotivamente dal loro lavoro gestendo gli avvisi di minacce IT.

Evento

Vertice sulla sicurezza intelligente on-demand

Scopri il ruolo fondamentale di AI e ML nella sicurezza informatica e case study specifici del settore. Guarda le sessioni on-demand oggi.

Guarda qui

Allo stesso tempo, il 55% ammette di non essere sicuro della propria capacità di dare priorità e rispondere agli avvisi.

Parte del motivo di questa mancanza di fiducia è che un analista deve indagare se ogni avviso è un falso positivo o una minaccia legittima e, se è dannoso, rispondere nel più breve tempo possibile.

Ciò è particolarmente impegnativo in ambienti di lavoro cloud e ibridi complessi con molte soluzioni disparate. È un processo che richiede tempo con poco margine di errore. Ecco perché Orca Security sta cercando di utilizzare ChatGPT (basato su GPT-3) per aiutare gli utenti ad automatizzare il processo di gestione degli avvisi.

“Abbiamo sfruttato GPT-3 per migliorare la capacità della nostra piattaforma di generare azioni correttive contestuali per gli avvisi di sicurezza di Orca. Questa integrazione semplifica e accelera notevolmente il tempo medio di risoluzione (MTTR) dei nostri clienti, aumentando la loro capacità di fornire correzioni rapide e mantenere continuamente sicuri i loro ambienti cloud”, ha dichiarato Itamar Golan, responsabile della scienza dei dati presso Orca Security.

In sostanza, Orca Security utilizza una pipeline personalizzata per inoltrare gli avvisi di sicurezza a ChatGPT3, che elaborerà le informazioni, annotando le risorse, i vettori di attacco e il potenziale impatto della violazione e fornirà, direttamente negli strumenti di monitoraggio del progetto come Jira, una spiegazione dettagliata di come per porre rimedio alla questione.

Gli utenti hanno anche la possibilità di rimediare attraverso la riga di comando, l’infrastruttura come codice (Terraform e Pulumi) o la Cloud Console.

È un approccio progettato per aiutare i team di sicurezza a utilizzare meglio le risorse esistenti. “Soprattutto considerando che la maggior parte dei team di sicurezza è limitata da risorse limitate, questo può alleviare notevolmente i carichi di lavoro quotidiani dei professionisti della sicurezza e dei team devops”, ha affermato Golan.

ChatGPT è un netto vantaggio per la sicurezza informatica?

Mentre l’uso di ChatGPT da parte di Orca Security evidenzia il ruolo positivo che l’intelligenza artificiale può svolgere nel migliorare la sicurezza aziendale, altre organizzazioni sono meno ottimiste sull’effetto che tali soluzioni avranno sul panorama delle minacce.

Ad esempio, questa settimana Deep Instinct ha pubblicato una ricerca sull’intelligence sulle minacce esaminando i rischi di ChatGPT e ha concluso che “l’intelligenza artificiale è più efficace nella creazione di malware che nel fornire modi per rilevarlo”. In altre parole, è più facile per gli attori delle minacce generare codice dannoso che per i team di sicurezza rilevarlo.

“In sostanza, attaccare è sempre più facile che difendersi (la migliore difesa è attaccare), soprattutto in questo caso, poiché ChatGPT permette di riportare in vita vecchi linguaggi di codice dimenticati, alterare o eseguire il debug del flusso di attacco in pochissimo tempo e generare l’intero processo dello stesso attacco in diverse varianti (il tempo è un fattore chiave)”, ha affermato Alex Kozodoy, responsabile della ricerca informatica presso Deep Instinct.

“D’altra parte, è molto difficile difendersi quando non sai cosa aspettarti, il che fa sì che i difensori possano essere preparati per una serie limitata di attacchi e per determinati strumenti che possono aiutarli a indagare su ciò che è accaduto – di solito dopo che sono già stati violati”, ha detto Kozodoy.

La buona notizia è che man mano che sempre più organizzazioni iniziano a sperimentare ChatGPT per proteggere l’infrastruttura on-premise e cloud, i processi di IA difensivi diventeranno più avanzati e avranno maggiori possibilità di tenere il passo con un numero sempre crescente di minacce guidate dall’IA.

La missione di VentureBeat deve essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia aziendale trasformativa e sulle transazioni. Scopri i nostri Briefing.

Leave a Comment

Your email address will not be published. Required fields are marked *