Καθώς οι επιχειρήσεις επιταχύνουν την υιοθέτηση της τεχνητής νοημοσύνης, ένα νέο, λιγότερο ορατό ρίσκο αρχίζει να αναδύεται: αυτό των αυτόνομων «πρακτόρων» AI που λειτουργούν χωρίς επαρκή έλεγχο, δημιουργώντας σοβαρά κενά στην ασφάλεια.
Σύμφωνα με τη νεότερη έκθεση Cyber Pulse της Microsoft, τα λεγόμενα «AI double agents», συστήματα που λειτουργούν εκτός επίσημης εποπτείας, πολλαπλασιάζονται ταχύτερα από την ικανότητα των επιχειρήσεων να τα παρακολουθήσουν.
Η έρευνα δείχνει ότι οι επιχειρήσεις υιοθετούν μαζικά AI agents για:
Ωστόσο, η ορατότητα και ο έλεγχος δεν συμβαδίζουν με τον ρυθμό υιοθέτησης, δημιουργώντας επικίνδυνα «τυφλά σημεία» για τις ομάδες ασφάλειας.
Το πρόβλημα εντείνεται όταν οι αυτόνομοι AI agents αποκτούν πρόσβαση σε δίκτυα, συσκευές και λογισμικό, λειτουργούν με εκτεταμένα δικαιώματα και δρουν χωρίς σαφή εποπτεία. Σε αυτές τις περιπτώσεις, μπορούν να λειτουργήσουν ως «διπλοί πράκτορες», αυξάνοντας τον κίνδυνο για διαρροή δεδομένων, μη εξουσιοδοτημένη πρόσβαση και επιχειρησιακή αστάθεια.
Τα στοιχεία για το 2026 δείχνουν σαφή τάση:
Την ίδια στιγμή:
Σύμφωνα με τη Microsoft, οι ομάδες ασφάλειας επικεντρώνονται σε τρία κρίσιμα σημεία:
Όπως σημειώνει η Jo Miller, National Security Officer της Microsoft UK, οι AI agents δεν είναι απλώς εργαλεία, αλλά μια νέα μορφή ψηφιακής παρουσίας.
«Καθώς οι AI agents περνούν από το στάδιο του πειραματισμού σε κρίσιμες λειτουργίες, δημιουργούν μια νέα κατηγορία ψηφιακής ταυτότητας που πρέπει να προστατευτεί με την ίδια αυστηρότητα όπως οι ανθρώπινες ή μηχανικές ταυτότητες».
Η ίδια επισημαίνει ότι οι «διπλοί πράκτορες» εμφανίζονται όταν η υιοθέτηση ξεπερνά τον έλεγχο και τον συντονισμό.
Για τη διαχείριση του κινδύνου, προτείνεται:
Η πρόκληση για τις επιχειρήσεις είναι σαφής: να αξιοποιήσουν τα οφέλη της AI χωρίς να δημιουργήσουν νέες «αόρατες» απειλές.