MENU

Η OpenAI περιορίζει ισχυρό μοντέλο κυβερνοασφάλειας λόγω πιθανών κινδύνων στις προεκτάσεις του

Απόφαση που σηματοδοτεί μια κρίσιμη καμπή στην παγκόσμια συζήτηση για την ασφάλεια των μεγάλων γλωσσικών μοντέλων

Το παράδειγμα της Anthropic ακολουθεί η OpenAI, που «κλειδώνει» ένα νέο, ισχυρό μοντέλο τεχνητής νοημοσύνης, καθώς εντοπίζει επικίνδυνες προεκτάσεις του.

Η απόφαση της OpenAI να περιορίσει αυστηρά την πρόσβαση σε ένα νέο, εξαιρετικά ισχυρό μοντέλο Τεχνητής Νοημοσύνης για κυβερνοασφάλεια, σηματοδοτεί μια κρίσιμη καμπή στην παγκόσμια συζήτηση για την ασφάλεια των μεγάλων γλωσσικών μοντέλων. Όπως και η Anthropic με το Mythos Preview, η εταιρεία επιλέγει να διαθέσει το εργαλείο μόνο σε μια μικρή ομάδα εταιρειών τεχνολογίας και ασφάλειας, αναγνωρίζοντας ότι οι δυνατότητές του είναι δυνητικά καταστροφικές αν πέσουν σε λάθος χέρια.

Καθεστώς ελεγχόμενης πρόσβασης, με αυστηρή επιλογή συνεργατών

Σύμφωνα με πληροφορίες που επικαλείται το Axios, η OpenAI έχει ολοκληρώσει την ανάπτυξη ενός μοντέλου με προηγμένες ικανότητες στον χώρο της κυβερνοασφάλειας, ικανού να εντοπίζει, να αναλύει και να εκμεταλλεύεται κενά ασφαλείας με τρόπο πολύ πιο αποτελεσματικό από τα σημερινά εργαλεία. Η εταιρεία έχει ήδη παρουσιάσει από τον Φεβρουάριο το πιλοτικό πρόγραμμα «Trusted Access for Cyber», μετά την κυκλοφορία του GPT‑5.3‑Codex, το οποίο θεωρείται το πιο ισχυρό μοντέλο της στον συγκεκριμένο τομέα.

Η φιλοσοφία είναι σαφής: αντί για ανοιχτή, μαζική διάθεση, επιλέγεται ένα καθεστώς ελεγχόμενης πρόσβασης, με αυστηρή επιλογή συνεργατών και ενισχυμένα πρωτόκολλα χρήσης. Παρόμοια στάση έχει υιοθετήσει και η Anthropic, η οποία δηλώνει ότι το Mythos Preview δεν θα διατεθεί ποτέ στο ευρύ κοινό, αφήνοντας ανοιχτό μόνο το ενδεχόμενο για άλλα, πιο «ασφαλή» μοντέλα της ίδιας οικογένειας, υπό αυστηρούς όρους.

Ο κίνδυνος «όπλου μαζικής διατάραξης»

Πρώην κυβερνητικοί και υψηλόβαθμοι αξιωματούχοι ασφαλείας έχουν προειδοποιήσει έντονα τον τελευταίο χρόνο ότι τα προηγμένα μοντέλα AI μπορούν, αν αξιοποιηθούν κακόβουλα, να υπονομεύσουν κρίσιμες υποδομές: δίκτυα ύδρευσης, ηλεκτρικά δίκτυα, ακόμη και χρηματοπιστωτικά συστήματα. Η ανησυχία δεν αφορά μόνο την υποβοήθηση χάκερ, αλλά τη σταδιακή αυτονόμηση των επιθέσεων, με τη βοήθεια συστημάτων που μαθαίνουν, βελτιώνονται και δρουν με ελάχιστη ανθρώπινη καθοδήγηση.

Η σημερινή επιλογή των εταιρειών να «κλειδώνουν» τα πιο επικίνδυνα μοντέλα λειτουργεί ως άτυπη αυτορρύθμιση, αλλά ταυτόχρονα αποκαλύπτει το μέγεθος της απειλής. Όπως επισημαίνουν ειδικοί της ασφάλειας, ακόμη και με περιορισμούς πρόσβασης, δεν υπάρχει πλέον γυρισμός: η τεχνογνωσία έχει παραχθεί και αργά ή γρήγορα θα διαχυθεί, είτε μέσω διαρροών είτε μέσω ανταγωνιστών που θα αναπτύξουν παρόμοιες δυνατότητες.

Περισσότερες ειδήσεις

«Μπάσιμο» της OpenAI στον χώρο των media – Εξαγορά του δημοφιλούς talk show TBPN

OpenAI: Εγκαταλείπει την πλατφόρμα δημιουργίας βίντεο «Sora»

Αντιμέτωπη με 10.000 κυβερνοεπιθέσεις καθημερινά η Ρουμανία – Η βασική πηγή προέλευσης και οι στόχοι τους

Σχετικά Άρθρα