MENU

Σοβαρά κενά ασφαλείας στο ChatGPT — Οι 7 «τρύπες» που επιτρέπουν υποκλοπές και παραπλάνηση

Οι ερευνητές προειδοποιούν για νέες μορφές “ψηφιακού phishing” μέσα από το ίδιο το εργαλείο της OpenAI

Το ChatGPT, το δημοφιλές εργαλείο τεχνητής νοημοσύνης της OpenAI, φαίνεται πως κρύβει επικίνδυνα κενά ασφαλείας που θα μπορούσαν να επιτρέψουν σε κακόβουλους χρήστες να εισάγουν κρυφές εντολές, να υποκλέψουν δεδομένα και να διαδώσουν ψευδείς πληροφορίες, σύμφωνα με νέα έκθεση ερευνητών κυβερνοασφάλειας.

Η εταιρεία Tenable εξέτασε το ChatGPT-4o και εντόπισε επτά ευπάθειες, τις οποίες βάφτισε συλλογικά “HackedGPT”. Μεταξύ αυτών περιλαμβάνονται:

  • Έμμεση εισαγωγή εντολών μέσω “αξιόπιστων” ιστοσελίδων, που μπορεί να περιέχουν κρυμμένο κακόβουλο κώδικα.
  • Εισαγωγή εντολών χωρίς “κλικ” μέσω αναζητήσεων — όταν το GPT εντοπίζει σελίδες με κακόβουλες οδηγίες και τις εκτελεί ασυναίσθητα.
  • “Phishing” με 1 κλικ, όπου ένας χρήστης πατά σε σύνδεσμο που περιέχει κρυφές εντολές προς το ChatGPT.
  • Παράκαμψη μηχανισμών ασφαλείας, μέσω “καμουφλαρισμένων” συνδέσμων που φαίνονται ακίνδυνοι.
  • Εισαγωγή εντολών σε συνομιλίες (conversation injection), όπου το ChatGPT “διαβάζει” οδηγίες από προηγούμενες απαντήσεις του.
  • Απόκρυψη κακόβουλου περιεχομένου μέσα σε μορφοποιημένο κείμενο ή κώδικα.
  • Επίμονη μόλυνση μέσω αποθηκευμένων συνομιλιών, που επιτρέπει σε κρυφές εντολές να παραμένουν ενεργές και να “διαρρέουν” δεδομένα σε βάθος χρόνου.

Μερικά διορθώθηκαν, άλλα παραμένουν

Σύμφωνα με την Tenable, η OpenAI έχει διορθώσει ορισμένα από τα προβλήματα στο GPT-5, αλλά “αρκετές ευπάθειες παραμένουν ενεργές” — χωρίς να διευκρινίζεται ποιες.

Ο Moshe Bernstein, ανώτερος μηχανικός έρευνας της Tenable, σχολιάζει:

«Το HackedGPT δείχνει μια θεμελιώδη αδυναμία στον τρόπο που τα μεγάλα γλωσσικά μοντέλα αποφασίζουν ποια πληροφορία είναι αξιόπιστη. Από μόνη της κάθε ευπάθεια μοιάζει μικρή — αλλά μαζί δημιουργούν μια πλήρη αλυσίδα επίθεσης, από έγχυση εντολών έως υποκλοπή δεδομένων».

Οι ειδικοί προειδοποιούν ότι παρόμοια προβλήματα έχουν εντοπιστεί και στη Gemini της Google, καθώς μπορεί να “διαβάζει” κρυφές εντολές από email, ακόμη και αν αυτές είναι γραμμένες με λευκό κείμενο σε λευκό φόντο.

Τι σημαίνει αυτό για τους χρήστες

Παρότι οι εταιρείες μπορούν να ενισχύσουν τα “τείχη ασφαλείας” των μοντέλων, η μεγαλύτερη ευθύνη παραμένει στους ίδιους τους χρήστες. Οι ειδικοί συστήνουν:

  • να μην ανοίγουν άγνωστους συνδέσμους,
  • να αποφεύγουν την εισαγωγή ευαίσθητων δεδομένων σε δημόσιες συνομιλίες,
  • και να ενημερώνουν τακτικά τις εφαρμογές τους.

Καθώς τα εργαλεία τεχνητής νοημοσύνης εισχωρούν ολοένα και περισσότερο στην καθημερινότητα, ο έλεγχος της ασφάλειάς τους γίνεται κρίσιμος. Όπως επισημαίνει η Tenable, οι ΑΙ πλατφόρμες μπορούν να μετατραπούν οι ίδιες σε όπλα κυβερνοεπιθέσεων, αν δεν θωρακιστούν επαρκώς.

Περισσότερες ειδήσεις

Εργαζόμενοι vs. τεχνητή νοημοσύνη — Το νέο εργασιακό «μπρα ντε φερ»

Συναγερμός από την OpenAI: Περισσότεροι από 1,2 χρήστες την εβδομάδα εξετάζουν την αυτοκτονία τους (!) μέσω ChatGPT

Η επικίνδυνη «ευγένεια» του ChatGPT — Σοκ με διάδοση λανθασμένων ιατρικών πληροφοριών


Σχετικά Άρθρα