Νέα έρευνα της Netskope καταγγέλλει πως εργαζόμενοι στον τομέα της υγείας θέτουν σε κίνδυνο τις οργανώσεις τους, επιχειρώντας συστηματικά να ανεβάσουν ευαίσθητα και ρυθμιζόμενα δεδομένα σε μη εγκεκριμένες πλατφόρμες – συμπεριλαμβανομένων και εργαλείων τεχνητής νοημοσύνης όπως τα ChatGPT και Gemini.
Η μελέτη υπογραμμίζει τον τεράστιο βαθμό χρήσης μη εγκεκριμένων εφαρμογών, αποκαλύπτοντας πως το 96% των συμμετεχόντων χρησιμοποιεί apps που αξιοποιούν τα δεδομένα των χρηστών για εκπαίδευση αλγορίθμων.
Πέρα από την αλόγιστη χρήση εργαλείων GenAI (γενετικής τεχνητής νοημοσύνης), πολλές παραβάσεις συνδέονται και με μεταφορτώσεις δεδομένων σε προσωπικούς λογαριασμούς cloud, όπως OneDrive και Google Drive.
Τα στοιχεία είναι αποκαλυπτικά: το 81% των παραβιάσεων ιδιωτικότητας αφορά ρυθμιζόμενα ιατρικά δεδομένα, όπως πληροφορίες προστατευόμενες από τον HIPAA (Νόμο για τη Φορητότητα και Λογοδοσία στην Ασφάλιση Υγείας των ΗΠΑ), ενώ το 19% σχετίζεται με κωδικούς πρόσβασης, πηγαίο κώδικα ή πνευματική ιδιοκτησία.
Περισσότεροι από τα δύο τρίτα των χρηστών GenAI στον χώρο της υγείας παραδέχτηκαν ότι χρησιμοποιούν προσωπικούς λογαριασμούς AI για να στείλουν ευαίσθητα δεδομένα εν ώρα εργασίας – γεγονός που ίσως υποδηλώνει τη δυσαρέσκειά τους με τις δυσνόητες κανονιστικές ρυθμίσεις και τις καθυστερημένες διαδικασίες.
Η Netskope προειδοποιεί ότι “η συγκεκριμένη συμπεριφορά εμποδίζει τις ομάδες ασφαλείας να έχουν καθαρή εικόνα για τις δραστηριότητες που σχετίζονται με GenAI στους κόλπους του προσωπικού τους.”
Όπως εξηγεί ο ερευνητής Gianpietro Cutolo από τα Netskope Threat Labs, «οι οργανισμοί υγείας πρέπει να βρουν την ισορροπία ανάμεσα στα οφέλη της γενετικής τεχνητής νοημοσύνης και στην εφαρμογή κατάλληλων μέτρων ασφάλειας και προστασίας δεδομένων, ώστε να περιοριστούν οι κίνδυνοι».
Η μελέτη τονίζει την ανάγκη για γρήγορη υιοθέτηση εγκεκριμένων GenAI εφαρμογών, προκειμένου να μειωθεί η χρήση της λεγόμενης “σκιώδους AI” (shadow AI) – μια ανησυχητική τάση που, αν και μειώνεται (από 87% σε 71% μέσα σε έναν χρόνο), παραμένει σε υψηλά επίπεδα.
Παράλληλα, πολιτικές Data Loss Prevention (DLP) – για την πρόληψη διαρροής δεδομένων – αναδεικνύονται ως βασικό εργαλείο ελέγχου και παρακολούθησης της πρόσβασης σε εφαρμογές GenAI. Πάνω από το 54% των οργανισμών εφαρμόζει πλέον DLP πολιτικές, έναντι 31% πέρυσι.
Ο Cutolo καταλήγει: «Οι οργανισμοί υγείας σημειώνουν πρόοδο, όμως η συνεχής εστίαση σε ασφαλείς, εγκεκριμένες λύσεις θα είναι καθοριστική για τη διατήρηση της προστασίας των δεδομένων στο εξελισσόμενο αυτό τοπίο».