MENU

AI agents: «Διπλοί πράκτορες» μέσα στις επιχειρήσεις – Νέα τυφλά σημεία στην κυβερνοασφάλεια

Καθώς οι επιχειρήσεις επιταχύνουν την υιοθέτηση της τεχνητής νοημοσύνης, ένα νέο, λιγότερο ορατό ρίσκο αρχίζει να αναδύεται: αυτό των αυτόνομων «πρακτόρων» AI που λειτουργούν χωρίς επαρκή έλεγχο, δημιουργώντας σοβαρά κενά στην ασφάλεια. Σύμφωνα με τη νεότερη έκθεση Cyber Pulse της Microsoft, τα λεγόμενα «AI double agents», συστήματα που λειτουργούν εκτός επίσημης εποπτείας, πολλαπλασιάζονται ταχύτερα από […]

Καθώς οι επιχειρήσεις επιταχύνουν την υιοθέτηση της τεχνητής νοημοσύνης, ένα νέο, λιγότερο ορατό ρίσκο αρχίζει να αναδύεται: αυτό των αυτόνομων «πρακτόρων» AI που λειτουργούν χωρίς επαρκή έλεγχο, δημιουργώντας σοβαρά κενά στην ασφάλεια.

Σύμφωνα με τη νεότερη έκθεση Cyber Pulse της Microsoft, τα λεγόμενα «AI double agents», συστήματα που λειτουργούν εκτός επίσημης εποπτείας, πολλαπλασιάζονται ταχύτερα από την ικανότητα των επιχειρήσεων να τα παρακολουθήσουν.

Η έρευνα δείχνει ότι οι επιχειρήσεις υιοθετούν μαζικά AI agents για:

  • αυτοματοποίηση εργασιών
  • αύξηση παραγωγικότητας
  • ενίσχυση λειτουργικής αποδοτικότητας

Ωστόσο, η ορατότητα και ο έλεγχος δεν συμβαδίζουν με τον ρυθμό υιοθέτησης, δημιουργώντας επικίνδυνα «τυφλά σημεία» για τις ομάδες ασφάλειας.

Το πρόβλημα εντείνεται όταν οι αυτόνομοι AI agents αποκτούν πρόσβαση σε δίκτυα, συσκευές και λογισμικό, λειτουργούν με εκτεταμένα δικαιώματα και δρουν χωρίς σαφή εποπτεία. Σε αυτές τις περιπτώσεις, μπορούν να λειτουργήσουν ως «διπλοί πράκτορες», αυξάνοντας τον κίνδυνο για διαρροή δεδομένων, μη εξουσιοδοτημένη πρόσβαση και επιχειρησιακή αστάθεια.

Η υιοθέτηση εκτοξεύεται, μαζί και οι ανησυχίες

Τα στοιχεία για το 2026 δείχνουν σαφή τάση:

  • 62% των επιχειρήσεων στο Ηνωμένο Βασίλειο ήδη χρησιμοποιούν AI agents
  • Αύξηση κατά 22% σε ετήσια βάση
  • 68% σχεδιάζουν πλήρη ανάπτυξη σε επίπεδο οργανισμού μέσα στον επόμενο χρόνο

Την ίδια στιγμή:

  • 84% των στελεχών αναγνωρίζουν ότι οι μη ελεγχόμενοι AI agents αποτελούν σοβαρό κίνδυνο ασφάλειας

Σύμφωνα με τη Microsoft, οι ομάδες ασφάλειας επικεντρώνονται σε τρία κρίσιμα σημεία:

  • Ορατότητα: Πού και πώς λειτουργούν οι AI agents
  • Ασφαλής ενσωμάτωση στα υπάρχοντα συστήματα
  • Συμμόρφωση με κανονισμούς, ελέγχους και διαδικασίες

Jo Miller: Οι AI agents είναι νέα ψηφιακή ταυτότητα που πρέπει να ελεγχθεί

Όπως σημειώνει η Jo Miller, National Security Officer της Microsoft UK, οι AI agents δεν είναι απλώς εργαλεία, αλλά μια νέα μορφή ψηφιακής παρουσίας.

«Καθώς οι AI agents περνούν από το στάδιο του πειραματισμού σε κρίσιμες λειτουργίες, δημιουργούν μια νέα κατηγορία ψηφιακής ταυτότητας που πρέπει να προστατευτεί με την ίδια αυστηρότητα όπως οι ανθρώπινες ή μηχανικές ταυτότητες».

Η ίδια επισημαίνει ότι οι «διπλοί πράκτορες» εμφανίζονται όταν η υιοθέτηση ξεπερνά τον έλεγχο και τον συντονισμό.

Για τη διαχείριση του κινδύνου, προτείνεται:

  • αντιμετώπιση των AI agents ως διαχειριζόμενων ταυτοτήτων
  • εφαρμογή αρχών zero trust
  • περιορισμός πρόσβασης (least privilege)
  • πλήρης δυνατότητα ελέγχου και καταγραφής ενεργειών

Η πρόκληση για τις επιχειρήσεις είναι σαφής: να αξιοποιήσουν τα οφέλη της AI χωρίς να δημιουργήσουν νέες «αόρατες» απειλές.

Σχετικά Άρθρα