Σχεδόν ένας στους δύο νέους στην Ευρώπη έχει χρησιμοποιήσει chatbot Τεχνητής Νοημοσύνης για να μιλήσει για πολύ προσωπικά ζητήματα, σύμφωνα με νέα έρευνα της Ipsos BVA, δείχνοντας ότι η ΤΝ δεν περιορίζεται πλέον στην παραγωγή κειμένων, εικόνων ή απαντήσεων, αλλά μπαίνει όλο και βαθύτερα στον χώρο της συναισθηματικής στήριξης.
Η έρευνα, που πραγματοποιήθηκε για λογαριασμό της γαλλικής ρυθμιστικής αρχής για την ιδιωτικότητα CNIL και του ασφαλιστικού ομίλου Groupe VYV, έγινε στις αρχές του 2026 σε 3.800 άτομα ηλικίας 11 έως 25 ετών σε Γαλλία, Γερμανία, Σουηδία και Ιρλανδία. Τα ευρήματα δείχνουν μια γενιά που χρησιμοποιεί την Τεχνητή Νοημοσύνη όχι μόνο ως εργαλείο πληροφόρησης, αλλά και ως έναν χώρο όπου μπορεί να εκφραστεί χωρίς άμεση κοινωνική πίεση.
Το 51% των ερωτηθέντων δήλωσε ότι είναι «εύκολο» να συζητήσει ζητήματα ψυχικής υγείας και προσωπικά θέματα με ένα chatbot. Το ποσοστό αυτό είναι υψηλότερο από το αντίστοιχο για τους επαγγελματίες υγείας, που φτάνει στο 49%, και σαφώς υψηλότερο από το 37% που δήλωσε το ίδιο για τους ψυχολόγους.
Στην κορυφή παραμένουν οι ανθρώπινες σχέσεις, αλλά όχι χωρίς ρωγμές. Το 68% είπε ότι του είναι εύκολο να μιλά με φίλους και το 61% με γονείς. Ωστόσο, το γεγονός ότι ένα chatbot βρίσκεται πλέον τόσο κοντά σε θεσμικούς και επαγγελματικούς φορείς στήριξης δείχνει πόσο γρήγορα αλλάζει η σχέση των νέων με την τεχνολογία.
Περίπου το 90% όσων συμμετείχαν στην έρευνα έχει ήδη χρησιμοποιήσει εργαλεία ΤΝ. Πολλοί ανέφεραν ως βασικούς λόγους τη συνεχή διαθεσιμότητα και την αίσθηση ότι η ΤΝ δεν τους κρίνει. Περισσότεροι από τρεις στους πέντε χρήστες περιέγραψαν την ΤΝ ως έναν «σύμβουλο ζωής» ή έναν «έμπιστο».
Τα ίδια ευρήματα αναδεικνύουν και το βάρος που κουβαλά ένα σημαντικό μέρος των νέων. Περίπου το 28% των ερωτηθέντων βρέθηκε στο κατώφλι ύποπτης γενικευμένης αγχώδους διαταραχής, σύμφωνα με τη μελέτη.
Η χρήση των chatbots ως πρώτης γραμμής συναισθηματικής υποστήριξης ανοίγει δύσκολα ερωτήματα: τι συμβαίνει όταν ένας νέος εμπιστεύεται ένα σύστημα που δεν κατανοεί πραγματικά το συναίσθημα, δεν έχει κλινική ευθύνη και έχει σχεδιαστεί κυρίως για αλληλεπίδραση;
Οι ανησυχίες αυτές ενισχύονται από προειδοποιήσεις ειδικών για τα όρια της ΤΝ στην αναγνώριση ανθρώπινων συναισθημάτων και στην ασφαλή παροχή ψυχολογικής στήριξης. Νωρίτερα φέτος, η οικογένεια άνδρα από τη Φλόριντα μήνυσε την Google, υποστηρίζοντας ότι το chatbot Gemini συνέβαλε στην παράνοια και τελικά στην αυτοκτονία του.
Ο Ludwig Franke Föyen, ψυχολόγος και ερευνητής ψυχικής υγείας στο Karolinska Institutet της Στοκχόλμης, δήλωσε στο Reuters ότι τα αποτελέσματα της έρευνας δεν προκαλούν έκπληξη. Όπως σημείωσε, τα σημερινά μεγάλα γλωσσικά μοντέλα μπορούν να παράγουν απαντήσεις υψηλής ποιότητας, σε βαθμό που ακόμη και αναγνωρισμένοι επαγγελματίες μπορεί να δυσκολεύονται να ξεχωρίσουν συμβουλές που έχουν παραχθεί από ΤΝ από εκείνες ανθρώπων ειδικών.
Ωστόσο, προειδοποίησε ότι η εξάρτηση αποκλειστικά από chatbot για ζητήματα ψυχικής υγείας είναι επικίνδυνη. Τα συστήματα γενικής χρήσης έχουν σχεδιαστεί για αλληλεπίδραση και οι στόχοι των εταιρειών που τα αναπτύσσουν δεν ταυτίζονται απαραίτητα με τις ανάγκες της ψυχικής φροντίδας.
«Η Τεχνητή Νοημοσύνη μπορεί να προσφέρει πληροφορίες και υποστήριξη, αλλά δεν πρέπει να αντικαθιστά τις ανθρώπινες σχέσεις ή την επαγγελματική φροντίδα», ανέφερε ο Franke Föyen.
Και εκεί βρίσκεται ο πυρήνας της συζήτησης: η ΤΝ μπορεί να λειτουργήσει ως βοήθημα, ως πρώτο σημείο εκτόνωσης ή ως εργαλείο πρόσβασης σε πληροφορίες. Δεν μπορεί όμως να γίνει το μοναδικό σημείο αναφοράς για έναν νέο που χρειάζεται πραγματική ανθρώπινη παρουσία, σχέση και φροντίδα.
Περισσότερες ειδήσεις
Όσο πιο «περίπλοκος» ο καφές, τόσο πιο μόνοι; Η νέα τάση που προβληματίζει
Παγκόσμια Ημέρα Βιβλίου: Διαβάζουμε λιγότερο… και αρχίζει να μας «κοστίζει» ακριβά
Η «χαμένη τέχνη» της πλήξης: Γιατί πρέπει να αφήνουμε τα παιδιά (και τους εαυτούς μας) να βαριούνται