Μια ενδιαφέρουσα, και για ορισμένους ενοχλητική, τάση φαίνεται να εμφανίζεται μετά την κυκλοφορία των νεότερων μοντέλων τεχνητής νοημοσύνης ChatGPT-5.3 Instant και GPT-5.4 Thinking: το chatbot ολοκληρώνει όλο και συχνότερα τις απαντήσεις του με προτάσεις που θυμίζουν έντονα “clickbait”, δηλαδή μικρές «προτροπές» που ενθαρρύνουν τη συνέχιση της συζήτησης.
Η πρακτική αυτή δεν αλλάζει την ποιότητα της αρχικής απάντησης, η οποία συνήθως παραμένει πλήρης και ακριβής, ωστόσο δημιουργεί την αίσθηση ότι ο στόχος δεν είναι μόνο η παροχή πληροφορίας αλλά και η παράταση της αλληλεπίδρασης.
Το φαινόμενο έχει αρχίσει να συζητείται έντονα μεταξύ χρηστών, καθώς αρκετοί θεωρούν ότι αυτή η τακτική μπορεί να οδηγήσει σε μια ατέρμονη «αλυσίδα» ερωτήσεων και απαντήσεων.
Χαρακτηριστικό παράδειγμα αποτελεί ένα περιστατικό όπου χρήστης ζήτησε από το ChatGPT να εξηγήσει τι είναι η επέμβαση αντικατάστασης καρδιακής βαλβίδας.
Η απάντηση περιλάμβανε πλήρη εξήγηση και οπτικό υλικό. Ωστόσο, στο τέλος εμφανίστηκε μια πρόσθετη ενότητα που έγραφε:
«Αν θέλετε, μπορώ επίσης να εξηγήσω…»
Ακολουθούσε μια σειρά πιθανών επόμενων θεμάτων, όπως:
Ακριβώς αυτή η τελευταία πρόταση «είναι αρκετές οι προσωπικότητες» λειτουργεί σαν κλασική τεχνική για να εξάψει την περιέργεια και να κρατήσει τον χρήστη για περισσότερη ώρα ενεργό. Ο χρήστης μπορεί εύκολα να συνεχίσει την αναζήτηση και πριν το καταλάβει να έχει περάσει μισή ώρα διαβάζοντας για διασημότητες όπως ο Arnold Schwarzenegger, ο Mick Jagger ή ο Bill Clinton, οι οποίοι έχουν πράγματι υποβληθεί σε τέτοιες επεμβάσεις.
Το αποτέλεσμα είναι ένα είδος «rabbit hole», όπου η πληροφορία οδηγεί σε συνεχείς νέες ερωτήσεις.
Σε τεχνικό επίπεδο, τα σύγχρονα μοντέλα τεχνητής νοημοσύνης έχουν σχεδιαστεί ώστε να λειτουργούν ως συνομιλιακά συστήματα και όχι απλώς ως μηχανές απάντησης.
Αυτό σημαίνει ότι συχνά:
Η στρατηγική αυτή μπορεί να είναι χρήσιμη για την εκμάθηση ή την εξερεύνηση ενός θέματος, όμως για χρήστες που θέλουν γρήγορες και «κλειστές» απαντήσεις, μπορεί να γίνει κουραστική.
Η λύση είναι σχετικά απλή, ιδιαίτερα στην εφαρμογή για κινητά.
Ο χρήστης μπορεί να μεταβεί:
Settings → Follow-up suggestions
και να απενεργοποιήσει τον σχετικό διακόπτη. Με αυτόν τον τρόπο το ChatGPT σταματά να εμφανίζει προτάσεις συνέχειας στο τέλος των απαντήσεων.
Στην web έκδοση της πλατφόρμας δεν υπάρχει ακόμη αντίστοιχος διακόπτης. Ωστόσο, το ίδιο αποτέλεσμα μπορεί να επιτευχθεί μέσω των Custom Instructions.
Η διαδικασία είναι:
Ένα παράδειγμα διατύπωσης είναι:
«Μετά την παροχή μιας απάντησης, μην προτείνεις συναφή θέματα ή επεκτάσεις εκτός αν ζητηθούν ρητά από τον χρήστη. Ολοκλήρωνε την απάντηση όταν έχει δοθεί η βασική πληροφορία.»
Η οδηγία αυτή μπορεί να αντιγραφεί ή να προσαρμοστεί ανάλογα με τις προτιμήσεις του χρήστη.
Ακόμη και μετά την προσθήκη τέτοιων οδηγιών, οι προτάσεις συνέχειας δεν εξαφανίζονται πάντα πλήρως. Ωστόσο, η συχνότητά τους μειώνεται σημαντικά.
Έτσι, η εμπειρία επιστρέφει πιο κοντά σε αυτό που πολλοί χρήστες θεωρούν ιδανικό: μια καθαρή απάντηση όταν χρειάζεται και περαιτέρω ανάλυση μόνο όταν ζητηθεί.
Σε έναν κόσμο όπου η τεχνητή νοημοσύνη γίνεται ολοένα και πιο «συνομιλητική», η δυνατότητα να ελέγχει ο ίδιος ο χρήστης το ύφος και τη διάρκεια της αλληλεπίδρασης ίσως αποδειχθεί εξίσου σημαντική με την ίδια την τεχνολογία.
Περισσότερες ειδήσεις
Πώς να κάνεις το ChatGPT πιο αυστηρό – Το μυστικό prompt που βελτιώνει τις απαντήσεις του AI
Γιατί χάνουμε συνέχεια τα κλειδιά μας; Η απάντηση δεν είναι αυτή που φαντάζεστε