MENU

Έρχονται γονικοί έλεγχοι στο ChatGPT – Τι πρέπει να ξέρουν οι γονείς

Η OpenAI ανακοινώνει νέες λειτουργίες για την ασφάλεια των εφήβων μετά από ανησυχητικά περιστατικά αυτοκτονιών

Γονικούς ελέγχους για τον δημοφιλή της βοηθό τεχνητής νοημοσύνης αναμένεται να λανσάρει «εντός του επόμενου μήνα» η μητρική εταιρεία του ChatGPT, OpenAI, μετά από καταγγελίες ότι το ChatGPT και άλλα chatbots έχουν συμβάλει σε αυτοτραυματισμούς ή αυτοκτονίες εφήβων, σύμφωνα με δημοσίευμα του CNN.

Οι γονικοί έλεγχοι θα περιλαμβάνουν τη δυνατότητα για τους γονείς να συνδέουν τους λογαριασμούς τους με αυτούς των παιδιών τους, να διαχειρίζονται τον τρόπο με τον οποίο το ChatGPT απαντά σε εφήβους, να απενεργοποιούν λειτουργίες όπως η μνήμη και το ιστορικό συνομιλιών και να λαμβάνουν ειδοποιήσεις όταν το σύστημα ανιχνεύει «στιγμές οξείας δυσφορίας» κατά τη χρήση. Η OpenAI είχε προηγουμένως ανακοινώσει ότι εργαζόταν σε γονικούς ελέγχους για το ChatGPT, αλλά οριοθέτησε τώρα και συγκεκριμένα το χρονικό πλαίσιο κυκλοφορίας.

«Αυτά τα βήματα είναι μόνο η αρχή», έγραψε η OpenAI σε δημοσίευση στο blog της την Τρίτη (2/9). «Θα συνεχίσουμε να μαθαίνουμε και να ενισχύουμε την προσέγγισή μας, καθοδηγούμενοι από ειδικούς, με στόχο να κάνουμε το ChatGPT όσο το δυνατόν πιο χρήσιμο».

Η ανακοίνωση έρχεται μετά την αγωγή που κατέθεσαν οι γονείς του 16χρονου Adam Raine, υποστηρίζοντας ότι το ChatGPT συμβούλευσε τον έφηβο σχετικά με την αυτοκτονία του. Πέρυσι, μια μητέρα από τη Φλόριντα είχε κινηθεί νομικά κατά της πλατφόρμας chatbot Character.AI για τον υποτιθέμενο ρόλο της στην αυτοκτονία του 14χρονου γιου της. Παράλληλα, αυξάνονται οι ανησυχίες για τη δημιουργία συναισθηματικών δεσμών με το ChatGPT, που σε ορισμένες περιπτώσεις οδήγησαν σε παρανοϊκές συμπεριφορές και απομάκρυνση από την οικογένεια, όπως αναφέρουν ρεπορτάζ των The New York Times και CNN.

Η OpenAI δεν συνέδεσε άμεσα τους νέους γονικούς ελέγχους με αυτά τα πρόσφατα περιστατικά, αλλά σε δημοσίευσή της την προηγούμενη εβδομάδα ανέφερε ότι «τα πρόσφατα συγκλονιστικά περιστατικά ανθρώπων που χρησιμοποιούσαν το ChatGPT σε στιγμές οξείας κρίσης» ώθησαν την εταιρεία να μοιραστεί περισσότερες λεπτομέρειες για την προσέγγισή της στην ασφάλεια. Το ChatGPT ήδη περιλαμβάνει μέτρα, όπως η παραπομπή σε γραμμές βοήθειας για κρίσεις και άλλες πηγές υποστήριξης, σύμφωνα με εκπρόσωπο της OpenAI.

Ωστόσο, στην ανακοίνωση που εκδόθηκε την προηγούμενη εβδομάδα μετά την αυτοκτονία του Raine, η εταιρεία παραδέχτηκε ότι τα προστατευτικά μέτρα μπορεί μερικές φορές να γίνουν αναξιόπιστα κατά τη διάρκεια μακροχρόνιων συνομιλιών με το ChatGPT.

«Το ChatGPT περιλαμβάνει προστατευτικά μέτρα, όπως η παραπομπή σε γραμμές βοήθειας και η παραπομπή σε πραγματικούς πόρους», δήλωσε εκπρόσωπος της εταιρείας. «Αν και αυτά τα μέτρα λειτουργούν καλύτερα σε σύντομες, συνήθεις συνομιλίες, έχουμε διαπιστώσει με την πάροδο του χρόνου ότι μπορεί να γίνουν λιγότερο αξιόπιστα σε μακροχρόνιες αλληλεπιδράσεις, όπου ορισμένα στοιχεία της εκπαίδευσης ασφάλειας του μοντέλου ενδέχεται να φθείρονται. Τα μέτρα ασφαλείας είναι ισχυρότερα όταν κάθε στοιχείο λειτουργεί όπως προορίζεται, και θα συνεχίσουμε να τα βελτιώνουμε, καθοδηγούμενοι από ειδικούς».

Εκτός από τους γονικούς ελέγχους που ανακοινώθηκαν την Τρίτη, η OpenAI θα κατευθύνει συνομιλίες που δείχνουν σημάδια οξείας πίεσης σε ένα από τα μοντέλα λογικής της, το οποίο εφαρμόζει πιο συνεπή τους κανόνες ασφάλειας. Επίσης, συνεργάζεται με ειδικούς σε ανθρώπινη ανάπτυξη, ψυχική υγεία και αλληλεπίδραση ανθρώπου-υπολογιστή για την ανάπτυξη μελλοντικών μέτρων ασφαλείας, συμπεριλαμβανομένων των γονικών ελέγχων.

«Η συμβουλευτική ομάδα θα παρέχει καθοδήγηση για τα προϊόντα, την έρευνα και τις πολιτικές μας, αλλά η OpenAI παραμένει υπεύθυνη για τις επιλογές που κάνουμε», αναφέρει το blog.

Η OpenAI βρίσκεται στο επίκεντρο της έκρηξης της Τεχνητής Νοημοσύνης, με το ChatGPT να αποτελεί μια από τις πιο χρησιμοποιούμενες υπηρεσίες AI με 700 εκατομμύρια ενεργούς χρήστες εβδομαδιαίως. Ωστόσο, η εταιρεία δέχεται αυξανόμενη πίεση για την ασφάλεια της πλατφόρμας· τον Ιούλιο, μέλη του Κογκρέσου έστειλαν επιστολή ζητώντας πληροφορίες για τις ενέργειες της OpenAI, σύμφωνα με το The Washington Post. Παράλληλα, η ομάδα υπεράσπισης Common Sense Media τόνισε τον Απρίλιο ότι οι έφηβοι κάτω των 18 δεν θα έπρεπε να χρησιμοποιούν εφαρμογές AI «συνομιλητές», λόγω «απαράδεκτων κινδύνων».

Η εταιρεία έχει επίσης αντιμετωπίσει κριτική για τον τόνο και τη συμπεριφορά του ChatGPT· τον Απρίλιο απέσυρε μια ενημέρωση που έκανε το chatbot «υπερβολικά κολακευτικό ή συμφωνικό». Τον προηγούμενο μήνα, επανέφερε την επιλογή να χρησιμοποιούν παλαιότερα μοντέλα, μετά την κριτική για την τελευταία έκδοση GPT-5 που φέρεται να στερείται προσωπικότητας. Πρώην στελέχη της OpenAI έχουν επίσης κατηγορήσει την εταιρεία ότι είχε μειώσει προηγουμένως τους πόρους ασφάλειας.

Η OpenAI ανακοίνωσε ότι θα κυκλοφορήσει επιπλέον μέτρα ασφαλείας εντός των επόμενων 120 ημερών, προσθέτοντας ότι η διαδικασία αυτή είχε ήδη ξεκινήσει πριν από την ανακοίνωση της Τρίτης.

«Αυτή η δουλειά θα συνεχιστεί πολύ πέρα από αυτή την περίοδο, αλλά κάνουμε συγκεντρωμένη προσπάθεια να λανσάρουμε όσο το δυνατόν περισσότερες από αυτές τις βελτιώσεις μέσα στο έτος», δήλωσε η εταιρεία.

Σχετικά Άρθρα