MENU

Τεχνητή νοημοσύνη στη δικαιοσύνη – Πόσο κοντά είμαστε σε «ψηφιακούς» δικαστές;

Φοιτητές και ειδικοί από 13 χώρες εξετάζουν αν οι αλγόριθμοι μπορούν να λάβουν δικαστικές αποφάσεις και ποιος λογοδοτεί όταν αποτυγχάνουν

Στην Αστάνα του Καζακστάν, μια διεθνής φοιτητική διοργάνωση για το «δίκαιο του μέλλοντος» έφερε στο προσκήνιο ένα ερώτημα που μέχρι πρότινος έμοιαζε θεωρητικό, αλλά πλέον ακούγεται όλο και πιο επίμονα: μπορεί η τεχνητή νοημοσύνη να αναλάβει ρόλο δικαστή, ενόρκου ή ακόμη και συνηγόρου, όταν από την κρίση της εξαρτώνται ανθρώπινες ζωές, δικαιώματα και ελευθερίες;

Η συζήτηση αναπτύχθηκε στο International Legathon MaxUP 2026, που φιλοξενήθηκε στο Maqsut Narikbayev University, με συμμετοχές από 13 χώρες και αντικείμενο ακριβώς τη σχέση νέων τεχνολογιών, δικαίου, ηθικής και ανθρωπίνων δικαιωμάτων.

Η βασική ένσταση απέναντι στην ιδέα ενός «αλγοριθμικού δικαστή» είναι ότι η δικαστική κρίση δεν έγκειται μόνο στην τεχνική επεξεργασία δεδομένων. Απαιτεί στάθμιση πραγματικών περιστατικών, ερμηνεία κανόνων, κατανόηση των αποχρώσεων κάθε υπόθεσης και «απαιτεί» το ανθρώπινο στοιχείο που δεν μπορούν (τουλάχιστον ακόμη) να μιμηθούν επαρκώς οι μηχανές: την επιείκεια, την ενσυναίσθηση, την αίσθηση αναλογικότητας.

Η τεχνητή νοημοσύνη μπορεί να εντοπίζει πρότυπα και ομοιότητες μέσα σε τεράστιους όγκους πληροφοριών, αλλά δεν βιώνει τις συνέπειες της απόφασής της ούτε αντιλαμβάνεται το ηθικό βάρος που φέρει μια δικαστική ετυμηγορία.

«Μόνο ένας δικαστής, ως άνθρωπος, μπορεί να νομιμοποιήσει και να εκδώσει μια δικαστική απόφαση», είναι το στίγμα που έδωσε ο Σεργκέι Πεν, αντιπρόεδρος του διοικητικού συμβουλίου για την επιστήμη, την καινοτομία και την τεχνητή νοημοσύνη στο πανεπιστήμιο της Αστάνα. Κατά την προσέγγισή του, τα γλωσσικά μοντέλα αποδίδουν απαντήσεις με βάση στατιστικές συσχετίσεις και το υλικό στο οποίο έχουν εκπαιδευτεί, χωρίς να μπορούν ακόμη να αναπαράγουν με επάρκεια τη νομική αλυσίδα συλλογισμού που θεμελιώνει μια δικαστική κρίση.

Η ταχύτητα δεν αρκεί όταν κρίνεται η μοίρα ανθρώπων

Το ισχυρό επιχείρημα υπέρ της τεχνητής νοημοσύνης είναι, ασφαλώς, η αποτελεσματικότητα. Στον χώρο της Δικαιοσύνης, ένα τέτοιο σύστημα μπορεί να επεξεργάζεται πολύ πιο γρήγορα νομολογία, να εντοπίζει παρόμοιες υποθέσεις, να βοηθά στην ταξινόμηση υλικού και να ενισχύει τη συνέπεια στην εφαρμογή της δικαστικής πρακτικής. Στο Καζακστάν, σύμφωνα με όσα παρουσιάστηκαν στη διοργάνωση, χρησιμοποιούνται ήδη εσωτερικά εργαλεία τεχνητής νοημοσύνης για την ανάλυση νομοθεσίας και δικαστικής πρακτικής, ώστε οι δικαστές να έχουν καλύτερη εικόνα για το πώς έχουν αντιμετωπιστεί συναφείς διαφορές σε όλη τη χώρα. Ωστόσο, η τελική απόφαση παραμένει αποκλειστικά ανθρώπινη.

Παρόμοια εικόνα περιγράφηκε και για άλλες χώρες. Φοιτήτρια από την Κίνα ανέφερε ότι τα σχετικά συστήματα αξιοποιούνται σε απλές και βοηθητικές λειτουργίες, όπως η συμπλήρωση στοιχείων και η αναζήτηση συναφών υποθέσεων, όχι όμως για να αποφασίζουν την έκβαση μιας δίκης. Από τη Γεωργία, συμμετέχοντες επισήμαναν ότι το τεχνολογικό εφικτό δεν ταυτίζεται με το νομικά θεμιτό, ενώ από τον Καναδά τονίστηκε πως η ενσωμάτωση τέτοιων εργαλείων στη νομική πράξη πρέπει πρώτα να εξεταστεί και να ρυθμιστεί αυστηρά.

Το κρίσιμο πρόβλημα είναι ότι η τεχνητή νοημοσύνη μαθαίνει από προηγούμενα δεδομένα. Αν τα δεδομένα αυτά ενσωματώνουν στρεβλώσεις, προκαταλήψεις ή λανθασμένες κρίσεις του παρελθόντος, το σύστημα κινδυνεύει να αναπαράγει τα ίδια σφάλματα με τον μανδύα της ουδετερότητας. Κι εδώ βρίσκεται μία από τις μεγάλες αυταπάτες της εποχής: ένα αποτέλεσμα που παράγεται από μηχανή δεν είναι αυτομάτως πιο δίκαιο επειδή μοιάζει πιο ψυχρό, πιο καθαρό ή πιο γρήγορο. Συχνά είναι απλώς πιο αδιαφανές.

Αν η μηχανή κάνει λάθος, ποιος λογοδοτεί;

Ακόμη πιο δύσκολο είναι το ζήτημα της ευθύνης. Στη Δικαιοσύνη, η απόφαση δεν είναι μια απλή τεχνική έξοδος, αλλά πράξη δημόσιας εξουσίας. Όταν ένας δικαστής σφάλλει, υπάρχουν διαδικασίες προσφυγής, έλεγχος, πειθαρχική ευθύνη, ένδικα μέσα. Όταν όμως ένα σύστημα τεχνητής νοημοσύνης οδηγήσει σε άδικη ή παράνομη κρίση, ποιος ακριβώς φέρει το βάρος; Ο προγραμματιστής; Ο πάροχος της υποδομής; Ο φορέας που το αγόρασε; Ο δικαστής που το χρησιμοποίησε; Ή όλοι μαζί, δηλαδή, κανείς συγκεκριμένα;

Αυτό ακριβώς το κενό επιχείρησαν να φωτίσουν και οι φοιτητές που συμμετείχαν στη διοργάνωση. Από την πλευρά τους, φοιτητές του Maqsut Narikbayev University υποστήριξαν ότι το δίκαιο πρέπει να προσαρμοστεί ώστε να ξεχωρίζει τα επίπεδα κινδύνου και βλάβης που μπορεί να προκαλεί περιεχόμενο ή απόφαση παραγόμενη από τεχνητή νοημοσύνη. Οι νικητές του διαγωνισμού πρότειναν ακόμη αυστηρό καθεστώς ευθύνης για κατασκευαστές και αναπτύκτες συστημάτων, θεωρώντας ότι ο τελικός χρήστης δεν έχει πάντα ουσιαστική προστασία απέναντι σε ένα εργαλείο που δεν ελέγχει πραγματικά.

Η συζήτηση δεν είναι τυχαία ούτε χρονικά ουδέτερη. Το 2026 έχει ανακηρυχθεί στο Καζακστάν «Έτος Ψηφιοποίησης και Τεχνητής Νοημοσύνης», ενώ η χώρα έχει ήδη θέσει σε ισχύ νόμο για την τεχνητή νοημοσύνη, ο οποίος υπογράφηκε τον Νοέμβριο του 2025 και τέθηκε σε εφαρμογή στις 18 Ιανουαρίου 2026. Στο επίκεντρο αυτού του πλαισίου βρίσκεται η αρχή της ανθρωποκεντρικότητας, δηλαδή η παραδοχή ότι η τεχνητή νοημοσύνη λειτουργεί ως εργαλείο που μιμείται ορισμένες γνωστικές λειτουργίες του ανθρώπου, χωρίς να υποκαθιστά την ανθρώπινη ευθύνη.

Η Δικαιοσύνη δεν είναι γραμμή παραγωγής

Το συμπέρασμα που αναδύεται από αυτή τη διεθνή συζήτηση είναι μάλλον σαφές. Η τεχνητή νοημοσύνη μπορεί να εξελιχθεί σε πολύτιμο υποστηρικτικό εργαλείο για τη Δικαιοσύνη, ιδίως εκεί όπου απαιτείται ταχεία ανάλυση τεράστιου όγκου πληροφορίας. Δεν έχει αποδείξει όμως ότι μπορεί να σηκώσει το βάρος της δικανικής κρίσης, δηλαδή να αποφασίσει δίκαια, αιτιολογημένα και με πλήρη λογοδοσία για την τύχη ενός ανθρώπου.

Και ίσως εδώ βρίσκεται η ουσία. Η απονομή δικαιοσύνης δεν είναι διαδικασία μηχανικής ακρίβειας, αλλά άσκηση εξουσίας με ηθικό, κοινωνικό και θεσμικό περιεχόμενο. Οσο κι αν η εποχή λατρεύει την ταχύτητα και την αυτοματοποίηση, ένα δικαστήριο δεν είναι εργοστάσιο αποφάσεων. Και η δικαιοσύνη, ευτυχώς, δεν μετριέται μόνο με το πόσο γρήγορα βγαίνει μια απόφαση, αλλά με το αν αυτή αντέχει απέναντι στον νόμο, στη συνείδηση και στον άνθρωπο.

Περισσότερες ειδήσεις

Ψηφιακός δικαστικός φάκελος – Η Δικαιοσύνη περνά από το χαρτί στο cloud

Ψηφιακό άλμα για τη Δικαιοσύνη με τρία νέα συστήματα ΑΙ

Προσωπικά δεδομένα… σε δημόσια θέα – Το 52% μπορεί να δει την οθόνη σας στο μετρό


Σχετικά Άρθρα