Πώς η Διακυβέρνηση της Τεχνητής Νοημοσύνης Επηρεάζει το Κόστος Παραβίασης Δεδομένων; Νίκος Γεωργόπουλος
12/08/2025 18:17
Η υιοθέτηση και η διακυβέρνηση της Τεχνητής Νοημοσύνης (AI) έχουν σημαντική και διπλή επίδραση στο κόστος των παραβιάσεων δεδομένων, λειτουργώντας τόσο ως παράγοντας μείωσης του κόστους (όταν χρησιμοποιείται για άμυνα) όσο και ως παράγοντας αύξησης του κόστους (όταν υιοθετείται χωρίς επαρκή εποπτεία ή όταν χρησιμοποιείται από επιτιθέμενους).
Αναλυτικότερα:
- Μείωση του κόστους λόγω της χρήσης AI και αυτοματισμού στην ασφάλεια:
- Οι AI-powered άμυνες έχουν συμβάλει στη μείωση του παγκόσμιου μέσου κόστους παραβίασης δεδομένων για πρώτη φορά μετά από πέντε χρόνια, στα 4,44 εκατομμύρια δολάρια ΗΠΑ. Αυτό οφείλεται στην ταχύτερη αναγνώριση και αντιμετώπιση των παραβιάσεων.
- Οι ομάδες ασφαλείας που χρησιμοποιούν εκτενώς την AI και τον αυτοματισμό μείωσαν τον χρόνο παραβίασης κατά 80 ημέρες και ελάττωσαν το μέσο κόστος παραβίασης κατά 1,9 εκατομμύρια δολάρια ΗΠΑ σε σύγκριση με οργανισμούς που δεν χρησιμοποίησαν αυτές τις λύσεις. Συγκεκριμένα, το μέσο κόστος για εκτενή χρήση AI ήταν 3,62 εκατομμύρια δολάρια ΗΠΑ, έναντι 5,52 εκατομμυρίων δολαρίων ΗΠΑ για μη χρήση.
- Η εκτεταμένη χρήση AI και Machine Learning (ML) insights στην ασφάλεια μείωσε το μέσο κόστος παραβίασης σε 3,85 εκατομμύρια δολάρια ΗΠΑ, σε σύγκριση με 4,9 εκατομμύρια δολάρια ΗΠΑ για χαμηλή ή καθόλου χρήση.
- Η AI και ο αυτοματισμός παρέχουν ταχύτητα και κλίμακα στους αμυνόμενους, λειτουργώντας ως "πολλαπλασιαστές δεξιοτήτων" για τις ομάδες ασφαλείας.
- Μετά από μια παραβίαση, το 45% των οργανισμών που σχεδιάζουν επενδύσεις στην ασφάλεια θα επιλέξουν λύσεις με βάση την AI.
- Συνιστάται η χρήση εργαλείων ασφαλείας AI και αυτοματισμού για την ενίσχυση της ασφάλειας ταυτοτήτων (ανθρώπινων και μηχανών) και την αναβάθμιση των πρακτικών ασφαλείας δεδομένων.
- Αύξηση του κόστους λόγω έλλειψης εποπτείας και διακυβέρνησης AI (AI Oversight Gap):
- Οι οργανισμοί παραλείπουν την ασφάλεια και τη διακυβέρνηση της AI υπέρ της άμεσης υιοθέτησής της, με αποτέλεσμα τα μη ελεγχόμενα συστήματα να είναι πιο πιθανό να παραβιαστούν και να είναι πιο δαπανηρά όταν συμβεί αυτό.
- Η υιοθέτηση της AI ξεπερνά την εποπτεία.
- Το 97% των παραβιάσεων που σχετίζονται με την AI αφορούσαν συστήματα AI που στερούνταν κατάλληλους ελέγχους πρόσβασης.
- Η πλειονότητα των παραβιασμένων οργανισμών (63%) δεν διαθέτει πολιτικές διακυβέρνησης AI ή βρίσκεται ακόμη σε φάση ανάπτυξης.
- Ακόμη και όταν υπάρχουν πολιτικές, λιγότερο από το ήμισυ διαθέτει διαδικασίες έγκρισης για την ανάπτυξη AI, και το 61% στερείται τεχνολογιών διακυβέρνησης AI. Μόνο το 34% διενεργεί τακτικούς ελέγχους για μη εγκεκριμένη AI.
- Το 87% των οργανισμών δεν διαθέτει πολιτικές ή διαδικασίες διακυβέρνησης για τον μετριασμό του κινδύνου της AI.
- Το 20% των οργανισμών ανέφεραν ότι υπέστησαν παραβίαση λόγω περιστατικών ασφαλείας που αφορούσαν τη σκιώδη AI (χρήση AI χωρίς έγκριση ή επίβλεψη από τον εργοδότη).
- Για οργανισμούς με υψηλά επίπεδα σκιώδους AI, αυτές οι παραβιάσεις πρόσθεσαν 670.000 δολάρια ΗΠΑ στο μέσο κόστος παραβίασης σε σύγκριση με εκείνους που είχαν χαμηλά ή καθόλου επίπεδα σκιώδους AI. Το μέσο κόστος για παραβιάσεις με υψηλά επίπεδα σκιώδους AI ήταν 4,74 εκατομμύρια δολάρια ΗΠΑ, έναντι 4,07 εκατομμυρίων δολαρίων ΗΠΑ για χαμηλά/καθόλου.
- Η σκιώδης AI έχει αντικαταστήσει τις ελλείψεις δεξιοτήτων ασφαλείας ως ένας από τους τρεις κορυφαίους δαπανηρούς παράγοντες παραβίασης.
- Τα περιστατικά σκιώδους AI οδήγησαν σε περισσότερες παραβιάσεις Προσωπικών Αναγνωρίσιμων Πληροφοριών (PII) πελατών (65%) και πνευματικής ιδιοκτησίας (40%). Οι PII πελατών ήταν ο πιο ακριβός τύπος δεδομένων που παραβιάστηκαν σε ένα περιστατικό σκιώδους AI (166 δολάρια ΗΠΑ ανά αρχείο).
- Τα περιστατικά ασφαλείας σκιώδους AI πρόσθεσαν 200.000 δολάρια ΗΠΑ στο παγκόσμιο μέσο κόστος παραβίασης, πιθανώς λόγω μεγαλύτερου χρόνου ανίχνευσης και αντιμετώπισης. Το μέσο κόστος παραβίασης που περιλάμβανε σκιώδη AI ήταν 4,63 εκατομμύρια δολάρια ΗΠΑ.
- Οι επιτιθέμενοι χρησιμοποιούν τη γενετική AI (gen AI) για να τελειοποιήσουν και να επεκτείνουν τις εκστρατείες phishing και άλλες επιθέσεις κοινωνικής μηχανικής.
- Η Gen AI μείωσε τον χρόνο που απαιτείται για τη δημιουργία ενός πειστικού phishing email από 16 ώρες σε μόλις πέντε λεπτά.
- Κατά μέσο όρο, το 16% των παραβιάσεων δεδομένων περιλάμβανε τη χρήση AI από επιτιθέμενους, συχνότερα για phishing που δημιουργείται από AI (37%) και επιθέσεις βαθιάς παραποίησης (deepfake) (35%).
- Το μέσο κόστος μιας παραβίασης όπου η AI ενεπλάκη στην εκτέλεση του περιστατικού ασφαλείας ήταν 4,49 εκατομμύρια δολάρια ΗΠΑ.
- Το κόστος που προσθέτει η «Σκιώδης AI» (Shadow AI):
- Επιθέσεις που βασίζονται στην AI (AI-driven attacks):
Συνοψίζοντας, ενώ η εκτεταμένη υιοθέτηση και χρήση της AI και του αυτοματισμού σε λύσεις ασφαλείας μπορεί να μειώσει σημαντικά το κόστος και τον χρόνο αντιμετώπισης των παραβιάσεων, η απουσία επαρκούς διακυβέρνησης και ελέγχου στην υιοθέτηση της AI, ιδίως όσον αφορά τη σκιώδη AI, δημιουργεί νέες τρωτότητες και αυξάνει το κόστος των παραβιάσεων δεδομένων. Επιπλέον, η χρήση της AI από τους επιτιθέμενους καθιστά τις επιθέσεις πιο αποτελεσματικές και συχνές.