Το ChatGPT, το δημοφιλές εργαλείο τεχνητής νοημοσύνης της OpenAI, φαίνεται πως κρύβει επικίνδυνα κενά ασφαλείας που θα μπορούσαν να επιτρέψουν σε κακόβουλους χρήστες να εισάγουν κρυφές εντολές, να υποκλέψουν δεδομένα και να διαδώσουν ψευδείς πληροφορίες, σύμφωνα με νέα έκθεση ερευνητών κυβερνοασφάλειας.
Η εταιρεία Tenable εξέτασε το ChatGPT-4o και εντόπισε επτά ευπάθειες, τις οποίες βάφτισε συλλογικά “HackedGPT”. Μεταξύ αυτών περιλαμβάνονται:
Σύμφωνα με την Tenable, η OpenAI έχει διορθώσει ορισμένα από τα προβλήματα στο GPT-5, αλλά “αρκετές ευπάθειες παραμένουν ενεργές” — χωρίς να διευκρινίζεται ποιες.
Ο Moshe Bernstein, ανώτερος μηχανικός έρευνας της Tenable, σχολιάζει:
«Το HackedGPT δείχνει μια θεμελιώδη αδυναμία στον τρόπο που τα μεγάλα γλωσσικά μοντέλα αποφασίζουν ποια πληροφορία είναι αξιόπιστη. Από μόνη της κάθε ευπάθεια μοιάζει μικρή — αλλά μαζί δημιουργούν μια πλήρη αλυσίδα επίθεσης, από έγχυση εντολών έως υποκλοπή δεδομένων».
Οι ειδικοί προειδοποιούν ότι παρόμοια προβλήματα έχουν εντοπιστεί και στη Gemini της Google, καθώς μπορεί να “διαβάζει” κρυφές εντολές από email, ακόμη και αν αυτές είναι γραμμένες με λευκό κείμενο σε λευκό φόντο.
Παρότι οι εταιρείες μπορούν να ενισχύσουν τα “τείχη ασφαλείας” των μοντέλων, η μεγαλύτερη ευθύνη παραμένει στους ίδιους τους χρήστες. Οι ειδικοί συστήνουν:
Καθώς τα εργαλεία τεχνητής νοημοσύνης εισχωρούν ολοένα και περισσότερο στην καθημερινότητα, ο έλεγχος της ασφάλειάς τους γίνεται κρίσιμος. Όπως επισημαίνει η Tenable, οι ΑΙ πλατφόρμες μπορούν να μετατραπούν οι ίδιες σε όπλα κυβερνοεπιθέσεων, αν δεν θωρακιστούν επαρκώς.
Περισσότερες ειδήσεις
Εργαζόμενοι vs. τεχνητή νοημοσύνη — Το νέο εργασιακό «μπρα ντε φερ»
Η επικίνδυνη «ευγένεια» του ChatGPT — Σοκ με διάδοση λανθασμένων ιατρικών πληροφοριών