Τεχνητή Νοημοσύνη στη Δικαιοσύνη-Πρόοδος ή προαναγγελία ενός δυστοπικού μέλλοντος; Χριστόφορου Σεβαστίδη, ΔΝ- Εφέτη, Αικατερίνης Ντόκα, Εφέτη, Ιωάννας Ξυλιά, Προέδρου Πρωτοδικών
Τεχνητή Νοημοσύνη στη Δικαιοσύνη-
Πρόοδος ή προαναγγελία ενός δυστοπικού μέλλοντος;
Χριστόφορου Σεβαστίδη, ΔΝ- Εφέτη,
Αικατερίνης Ντόκα, Εφέτη,
Ιωάννας Ξυλιά, Προέδρου Πρωτοδικών
Μία πρώτη επισήμανση των κινδύνων που καλείται να αντιμετωπίσει η Δικαιοσύνη με την εισαγωγή της λεγόμενης Τεχνητής Νοημοσύνης έγινε στη Γενική Συνέλευση της Ένωσής μας στις 14 Δεκεμβρίου 2019. Στον χαιρετισμό του τότε ο Υπουργός Δικαιοσύνης ανέφερε μεταξύ άλλων: «Βρέθηκα σε 4 ταξίδια της μιας ημέρας στο Παρίσι, στο Στρασβούργο, στο Λουξεμβούργο και στις Βρυξέλες. Το μείζον ζήτημα συζήτησης μεταξύ των Υπουργών Δικαιοσύνης αυτή την περίοδο είναι το πώς θα εντάξουν την τεχνητή νοημοσύνη στο χώρο της Δικαιοσύνης. Και αντιλαμβάνομαι την ανησυχία και τον φόβο. Η πραγματικότητα λέει ότι η Ελλάδα πρέπει να κάνει τεράστια βήματα, έχει να διανύσει μια τεράστια διαδρομή για να φτάσει σε αυτό το επίπεδο». Η προτεραιότητα που δίνει το Υπουργείο στον συγκεκριμένο σχεδιασμό είναι αδιαμφισβήτητη μετά και την ειδική εκδήλωση που πραγματοποιήθηκε πριν λίγες εβδομάδες με θέμα τον Ευρωπαϊκό Χάρτη Δεοντολογίας για την Τεχνητή Νοημοσύνη στα δικαστικά συστήματα. Και στην εκδήλωση αυτή ο Υπουργός Δικαιοσύνης αφού σχολίασε το αναντικατάστατο της δικανικής κρίσης τόνισε ότι κανείς δεν δικαιούται να καθυστερήσει την εξέλιξη της τεχνολογίας και τον ψηφιακό μετασχηματισμό της δικαιοσύνης και ότι υποχρέωση της Πολιτείας είναι να βρει την «χρυσή τομή» με πολιτικές που θα διευκολύνουν την διείσδυση των νέων τεχνολογιών.
Ο Ευρωπαϊκός Χάρτης Δεοντολογίας για τη χρήση της Τεχνητής Νοημοσύνης (Ε.Χ.Δ.Τ.Ν.) στα δικαστικά συστήματα υιοθετήθηκε από την CEPEJ (Ευρωπαϊκή Επιτροπή για την αποτελεσματικότητα της Δικαιοσύνης) στο Στρασβούργο στις 3-4 Δεκεμβρίου 2018 χωρίς μέχρι σήμερα στην Ελλάδα να έχει ανοίξει ένας διάλογος ή να έχει γίνει κάποια ενημέρωση στους δικαστικούς λειτουργούς και στις Δικαστικές Ενώσεις, παρά το γεγονός ότι υπήρχε τέτοια σύσταση (παράγραφος 155 Ε.Χ.Δ.Τ.Ν.). Η ενημέρωση συνήθως γίνεται λίγο πριν την εξαγγελία μιας νομοθετικής πρωτοβουλίας, όταν δεν υπάρχει ο αναγκαίος χρόνος συζήτησης, ζυμώσεων και προβολής αντεπιχειρημάτων. Την ίδια στιγμή που ο Υπουργός Δικαιοσύνης εμφανίζει την Τεχνητή Νοημοσύνη στη Δικαιοσύνη ως ένα αναγκαίο βήμα προόδου και σύγκλισης της Ελλάδας με την υπόλοιπη Ευρώπη, ο Ευρωπαϊκός Χάρτης Δεοντολογίας εκφράζει έναν βαθύτατο σκεπτικισμό και πολλές επιφυλάξεις για τη συστηματική χρήση της.
Τι είναι η Τεχνητή Νοημοσύνη- Πως λειτουργεί: Ο Ε.Χ.Δ.Τ.Ν. όπως αναφέρει και στο Παράρτημα Ι συντάχθηκε με την επιστημονική συνδρομή και του κ. Βασίλειου Λάμπου, ερευνητή στο Τμήμα Επιστήμης του University College London. Ο συγκεκριμένος ερευνητής μαζί με άλλους δύο Έλληνες επιστήμονες ανέπτυξαν από το 2016 μία μέθοδο Τεχνητής Νοημοσύνης χρησιμοποιώντας αλγόριθμους που μπορούν να προβλέψουν, όπως ισχυρίζονται, με πιθανότητα 79% τις δικαστικές αποφάσεις του Ευρωπαϊκού Δικαστηρίου Ανθρωπίνων Δικαιωμάτων. Πρόκειται για την λεγόμενη «προβλεπτική δικαιοσύνη» η οποία στηριζόμενη σε αλγόριθμους εξετάζει προηγούμενες δικαστικές αποφάσεις και λαμβάνοντας υπόψη το υλικό της κάθε δικογραφίας, μπορεί να προβλέψει την απόφαση του δικαστηρίου σε κάθε νέα υπόθεση. Οι πιθανότητες διαμορφώνονται μέσω στατιστικής μοντελοποίησης προηγούμενων αποφάσεων, κάνοντας χρήση δύο ειδικών τομέων της επιστήμης των υπολογιστών: την επεξεργασία φυσικής γλώσσας και την μηχανική μάθηση. Όπως αναφέρεται και στον Ε.Χ.Δ.Τ.Ν. (παράγραφος 64) «η αξιοπιστία του μοντέλου που δημιουργείται εξαρτάται σημαντικά από την ποιότητα των δεδομένων που χρησιμοποιούνται και από την επιλογή της τεχνικής της μηχανικής μάθησης».
Σε τι (υποτίθεται ότι) αποβλέπει: Τόσο στην Αμερική όσο και στον Καναδά και στην Αυστραλία έχουν προ ετών ξεκινήσει οι καμπάνιες της «έξυπνης δικαιοσύνης» ώστε αυτή να καθίσταται πλέον δικαίωμα. Η δικηγόρος Χρίστια Μίτλεττον στο άρθρο της με τίτλο ‘Τεχνητή Νοημοσύνη, Δικαιοσύνη και Έξυπνη Δικαιοσύνη’ αναφέρει: «Κάπως έτσι μπαίνει στο διάλογο η συσχέτιση της τεχνητής νοημοσύνης με την δικαστική διαφάνεια ή καλύτερα η έννοια της «έξυπνης δικαιοσύνης» που βασίζεται σε τεχνολογικά δεδομένα για να αποδιώξει από τους κόλπους της δικαιοσύνης τις όποιες ανθρώπινες αδυναμίες, για να επιτύχει τόσα πολλά που περιλαμβάνουν και την ανάκτηση και ενίσχυση της εμπιστοσύνης των ανθρώπων στη λειτουργία των νόμων, του δικαίου και της δικαιοσύνης. …Η «έξυπνη δικαιοσύνη» είναι βασισμένη στην επιστήμη και στην τεχνολογία, είναι λιγότερο ενστικτώδης ή εμποτισμένη με προσωπικές πεποιθήσεις ή μεταβαλλόμενες συναισθηματικές καταστάσεις ή πάθη». Ο Ε.Χ.Δ.Τ.Ν. βλέπει στην Τεχνητή Νοημοσύνη «έναν τρόπο για να παρέχουν οι δικηγόροι καλύτερες συμβουλευτικές υπηρεσίες στους πελάτες τους» και «κάποιοι ασφαλιστές προσφέρουν ήδη τη χρήση προβλεπτικών συστημάτων στους πελάτες τους για να μπορούν να αξιολογήσουν τη βασιμότητα των υποθέσεών τους», ενώ για το Δημόσιο θα είναι «ένα μέσο για τη μείωση των λειτουργικών δαπανών της Δικαιοσύνης» (παράγραφοι 96 και 97 του Ε.Χ.Δ.Τ.Ν.). Στην Εσθονία η αιτιολόγηση της «μεταρρύθμισης», που θα περιγραφεί παρακάτω, φαίνεται ότι έχει αρκετές ομοιότητες με αυτήν που χρησιμοποιήθηκε και στη Χώρα μας όταν εισήχθη η υποχρεωτική ιδιωτική διαμεσολάβηση: η αναβάθμιση της ποιότητας των υπηρεσιών και η εκκαθάριση υποθέσεων που συσσωρεύονται για μεγάλο χρονικό διάστημα.
Ποιους εξυπηρετεί: Μία πρώτη απάντηση δίνεται χωρίς περιστροφές από τον ίδιο τον Ευρωπαϊκό Χάρτη Δεοντολογίας: «Η πρωτοβουλία για την ανάπτυξη αυτών των εργαλείων προέρχεται κατά κύριο λόγο από τον ιδιωτικό τομέα, του οποίου η πελατεία είναι κυρίως ασφαλιστικές εταιρίες, δικηγόροι και εταιρίες παροχής νομικών υπηρεσιών που επιθυμούν να μειώσουν τη νομική αβεβαιότητα και τη μη προβλεψιμότητα των δικαστικών αποφάσεων» (παράγραφος 3). Και συνεχίζει «Οι δικηγόροι κάνουν από παλιά προσπάθειες σύγκρισης των συνθέσεων του δικαστηρίου, λιγότερο ή περισσότερο εμπειρικά, έτσι ώστε να μπορούν να συμβουλέψουν καλύτερα τον πελάτη τους σε σχέση με έναν συγκεκριμένο δικαστή ή μια σύνθεση δικαστηρίου» (παράγραφος 43 και 96). Τι λιγότερο μας λέει ο Ευρωπαϊκός Χάρτης Δεοντολογίας από την εισαγωγή μιας μεθόδου «επιλογής δικαστή» σύμφωνα με τα συμφέροντα του πελάτη μιας εταιρίας ή ενός δικηγορικού γραφείου κατά παρέκκλιση της Συνταγματικής αρχής του «φυσικού δικαστή» ; Είναι μάλλον περιττό να θυμίσουμε ότι σύμφωνα με το άρθρο 8 του Ελληνικού Συντάγματος η αρχή του «φυσικού δικαστή» δεν περιορίζεται μόνο στο δικαστήριο το οποίο σύμφωνα με το νόμο έχει δικαιοδοσία και αρμοδιότητα να δικάσει αλλά αναφέρεται και στα συγκεκριμένα φυσικά πρόσωπα που θα συγκροτήσουν το εν λόγω δικαστήριο. Τα πρόσωπα αυτά θα πρέπει να καθορίζονται εκ των προτέρων με βάση αντικειμενικά κριτήρια και όχι επιλεκτικά και ενόψει συγκεκριμένων υποθέσεων (Κ. Χρυσόγονος, Ατομικά και Κοινωνικά Δικαιώματα, σελ. 406). Ο κίνδυνος τον οποίο θέλει να αποτρέψει το άρθρο 8 Σ «δεν έγκειται σε ποιο δικαστήριο θα δικάσει αλλά στην επιλογή των δικαστών της αρεσκείας των διοικήσεων ή των προϊσταμένων των δικαστηρίων» (έτσι ΑΠ 1740/2007, Δνη 2009, 1027 και Κονδύλης σε Σπυρόπουλου, Κοντιάδη, Ανθόπουλου, Γεραπετρίτη, Σύνταγμα – κατ’ άρθρο ερμηνεία, άρθρο 8 παρ. 19), πόσο μάλλον των εταιριών και των δικηγορικών γραφείων θα προσέθετε κανείς! Και πραγματικά ο Ευρωπαϊκός Χάρτης Δεοντολογίας αναγνωρίζει την ύπαρξη αυτού του κινδύνου: «η τακτική αυτή έχει ήδη παρατηρηθεί εδώ και καιρό στις ΗΠΑ και στη Γαλλία για αδικήματα στον τομέα του Τύπου …όπου οι ενάγοντες είναι γνωστό ότι επιλέγουν το δικαστήριο το οποίο φαίνεται να επιδικάζει τα υψηλότερα ποσά αποζημίωσης και τόκων»! (παράγραφος 46 του Ε.Χ.Δ.Τ.Ν.).
Μια σύντομη ματιά στον υπόλοιπο κόσμο: Η στάση των κρατών στο συγκεκριμένο ζήτημα δεν είναι ενιαία αλλά αποτελεί συνάρτηση πολλών παραμέτρων, όπως η κουλτούρα και η παράδοση ενός λαού, το βάθος και η ταχύτητα της διείσδυσης των επιχειρηματικών συμφερόντων σε κρατικές λειτουργίες, η χαλαρή ή σθεναρή αντίσταση της επιστημονικής κοινότητας και των πολιτικών κομμάτων. Η Εσθονία για παράδειγμα που πολλές φορές χρησιμοποιήθηκε από την Ευρωπαϊκή Ένωση ως «πιλότος» σε «καινοτόμες μεταρρυθμίσεις» ανακοίνωσε από το 2019 ότι έχει αναπτύξει και θα θέσει σε εφαρμογή εντός του 2020 ένα πρόγραμμα Τεχνητής Νοημοσύνης το οποίο θα εκδίδει δικαστικές αποφάσεις για υποθέσεις μικροδιαφορών έως 7.000 ευρώ! Οι διάδικοι θα εφοδιάζουν μία πλατφόρμα με τα αναγκαία έγγραφα και το πρόγραμμα θα εκδίδει την απόφαση. Ο περιορισμός της υποκατάστασης του φυσικού δικαστή από τους αλγόριθμους μόνο στη διαδικασία των μικροδιαφορών είναι φυσικά μια καλή αρχή και είναι θέμα χρόνου να διευρυνθεί και να οδηγήσει σταδιακά στην ολοκληρωτική υποκατάσταση! Η Λετονία μαζί με την Μ. Βρετανία και την Ολλανδία έχουν επίσης επεξεργαστεί σχέδια ανάθεσης υποθέσεων μικρού χρηματικού αντικειμένου στην Τεχνητή Νοημοσύνη. Όπως αναφέρεται και στον Ευρωπαϊκό Χάρτη Δεοντολογίας (παράγραφος 105) το αντικείμενο των υπηρεσιών ηλεκτρονικής επίλυσης διαφορών (ΗΕΔ) φαίνεται να επεκτείνεται και δεν αφορά μόνο διαφορές μικρού χρηματικού αντικειμένου αλλά και φορολογικές και κοινωνικοασφαλιστικές διαφορές καθώς και διαδικασίες διαζυγίων. Στην Ολλανδία στα ιδιωτικά ασφαλιστήρια υγείας προβλέπεται αυτόματη προσφυγή στην ΗΕΔ πριν την άσκηση οποιουδήποτε ένδικου βοηθήματος. Κι’ αν η Ευρώπη βρίσκεται σε ένα εμβρυακό στάδιο υιοθέτησης τέτοιων πρακτικών, στην άλλη άκρη του Ατλαντικού οι ΗΠΑ έχουν περάσει στο στάδιο της υποχρεωτικής χρήσης της Τεχνητής Νοημοσύνης από τους δικαστές. Το περίφημο λογισμικό της COMPAS, που αναπτύχθηκε από ιδιωτική εταιρία, είχε ως στόχο να αξιολογήσει τον κίνδυνο υποτροπής του καταδικασμένου και χρησιμοποιείται υποχρεωτικά από τους δικαστές σε ορισμένες Πολιτείες των ΗΠΑ. Διαπιστώθηκε ωστόσο ότι στα άτομα αφροαμερικανικής καταγωγής αποδόθηκε βαθμός υποτροπής δύο φορές μεγαλύτερος από αυτόν σε άλλες πληθυσμιακές ομάδες. Στην υπόθεση State v. Loomis η ποινή των έξι ετών κάθειρξης που επιβλήθηκε στον κατηγορούμενο για κλοπή αυτοκινήτου επηρεάστηκε από το λογισμικό της COMPAS. Το δευτεροβάθμιο δικαστήριο έκρινε ότι η πρωτόδικη απόφαση δεν συμβάδιζε με την αρχή της δίκαιης δίκης. Η υπόθεση έφτασε στο Ανώτατο Δικαστήριο του Wisconsin, το οποίο τελικά αποφάνθηκε ότι η χρήση του συγκεκριμένου λογισμικού δεν συνιστούσε προσβολή οποιουδήποτε δικαιώματος του κατηγορουμένου, παρόλο που η μεθοδολογία του COMPAS δεν έχει κοινοποιηθεί επαρκώς από την εταιρία που επικαλείται το εμπορικό απόρρητο. Η εταιρία ακόμα και μετά την κοινωνική αντίδραση που προκλήθηκε, αρνήθηκε να επιτρέψει σε τρίτους επιστήμονες τον έλεγχο του αλγορίθμου της. Η Γαλλία τέλος από πέρσι ενσωμάτωσε στο άρθρο 33 του Νόμου για την μεταρρύθμιση της Δικαιοσύνης την απαγόρευση της αλγοριθμικής ανάλυσης δικαστικών αποφάσεων (με ποινή φυλάκισης μέχρι 5 ετών), της χρήσης δηλαδή προσωπικών δεδομένων δικαστικών λειτουργών με σκοπό την ανάλυση, σύγκριση, αξιολόγηση και πρόβλεψη των επαγγελματικών τους πρακτικών.
Οι κίνδυνοι: Ο Ευρωπαϊκός Χάρτης Δεοντολογίας στο Παράρτημα ΙΙ κατηγοριοποιεί τις πιθανές χρήσεις της Τεχνητής Νοημοσύνης στη Δικαιοσύνη εντάσσοντας την κατάρτιση προφίλ δικαστών και την πρόβλεψη δικαστικών αποφάσεων στις «χρήσεις για τις οποίες πρέπει να προηγηθούν πρόσθετες επιστημονικές μελέτες» ενώ διατυπώνει «έντονες επιφυλάξεις» για χρήση αλγορίθμων σε ποινικές υποθέσεις για την κατάρτιση προφίλ συγκεκριμένων ατόμων. Προκαλεί ωστόσο εντύπωση το γεγονός ότι στην παραπάνω κατηγοριοποίηση δεν γίνεται καμία αναφορά ούτε υπάρχει προβληματισμός για τις περιπτώσεις εκείνες που Ευρωπαϊκά Κράτη έχουν ήδη αναθέσει την επίλυση διαφορών στους αλγόριθμους. Όταν για το έλασσον (πρόβλεψη δικαστικών αποφάσεων) απαιτούνται πρόσθετες επιστημονικές μελέτες, πόσο επικίνδυνη αλήθεια είναι η ανάθεση δικαστικών καθηκόντων σε ηλεκτρονικούς υπολογιστές;
Μεταξύ των κινδύνων που επισημαίνονται από τη χρήση της Τεχνητής Νοημοσύνης στη Δικαιοσύνη ορισμένοι αφορούν θεμελιώδεις δημοκρατικές αρχές όπως η αρχή της νομιμότητας. «Το αποτέλεσμα αυτών των εργαλείων μπορεί να είναι όχι απλώς να παρέχονται προτροπές, αλλά να παράγεται οιονεί επιτακτικότητα, με συνέπεια να δημιουργείται μια νέα μορφή κανονιστικότητας, η οποία θα μπορούσε να λειτουργήσει συμπληρωματικά με το νόμο, θέτοντας περιοριστικό πλαίσιο στην κυρίαρχη διακριτική ευχέρεια του δικαστή και να οδηγήσει πιθανώς μακροπρόθεσμα σε μια τυποποίηση των δικαστικών αποφάσεων» (παράγραφος 7 του Ε.Χ.Δ.Τ.Ν.). Η νομολογία των δικαστηρίων όπως και η νομική θεωρία δεν είναι στατική αλλά εμπλουτίζεται με τον διάλογο, μεταβάλλεται ανάλογα με τις κοινωνικές εξελίξεις. Η Τεχνητή Νοημοσύνη δεν έχει αυτό το πλεονέκτημα της μεταβλητότητας και προσαρμοστικότητας της ανθρώπινης σκέψης στις νέες συνθήκες. Θα αναπαράγει θέσεις και αντιλήψεις παρωχημένες σε πλήρη αναντιστοιχία με την εξέλιξη και την πρόοδο. Ανησυχία προκαλεί ο βαθμός δέσμευσης των δικαστών από τις επιταγές των αλγορίθμων. Με την χρήση της Τεχνητής Νοημοσύνης «οι δικαστές δεν θα επέλυαν τις διαφορές μόνο σύμφωνα με τους κανόνες δικαίου αλλά και με τις τάσεις της νομολογίας που προκύπτουν από στατιστικά που συγκεντρώνονται από ένα ψηφιακό εργαλείο… Η εξαγωγή ενός κανόνα από μεγάλο αριθμό δικαστικών αποφάσεων χωρίς αυτές να κατατάσσονται σε σχέση με την ιεραρχία των δικαστηρίων που τις εκδίδουν, δεν θα αγνοούσε την ιεραρχία μεταξύ των δικαστηρίων και τη σημασία των αποφάσεων των Ανωτάτων Δικαστηρίων;» (παράγραφος 35 του Ε.Χ.Δ.Τ.Ν.).
Για την παραβίαση της αρχής του «φυσικού δικαστή» ειπώθηκαν παραπάνω ορισμένες σκέψεις και προβληματισμοί.
Ζήτημα τίθεται επίσης και ως προς την προστασία των προσωπικών δεδομένων των διαδίκων και των μαρτύρων (εθνοτική ή φυλετική προέλευση, πολιτικές και θρησκευτικές πεποιθήσεις, συμμετοχή σε συνδικαλιστική οργάνωση κλπ) τα οποία θα τα διαχειρίζονται ιδιωτικές εταιρίες.
Ιδιαίτερο αντικείμενο συζήτησης αποτέλεσε η δημοσιοποίηση των ονομάτων των δικαστικών λειτουργών μέσα σε μια ολοκληρωμένη βάση δεδομένων, ένα ζήτημα εντελώς ξεχωριστό από την αρχή της δημοσιοποίησης των πρωτοτύπων ή επικυρωμένων αντιγράφων των δικαστικών αποφάσεων. Σε μια μελέτη που διεξήχθη στη Γαλλία προτάθηκε η δυνατότητα δημοσίευσης μόνο των ονομάτων των δικαστών των Ανωτάτων Δικαστηρίων, παρότι αναγνωρίστηκε ότι αυτό θα μπορούσε να οδηγήσει σε έναν δρόμο χωρίς επιστροφή (παράγραφος 53 του Ε.Χ.Δ.Τ.Ν.).
Συναφής και ιδιαίτερα ανησυχητικός είναι ο προβληματισμός της χειραγώγησης των δικαστών μέσω της πίεσης που τους ασκείται από το συγκεκριμένο μοτίβο των αλγόριθμων. «Είναι πιθανόν οι δικαστές να μην αναλάβουν το πρόσθετο βάρος, ιδιαίτερα σε συστήματα όπου η θητεία τους δεν είναι μόνιμη.. ή όταν μπορεί να τεθεί ζήτημα προσωπικής τους ευθύνης (πειθαρχικής, αστικής ακόμα και ποινικής)» (παράγραφος 140 του Ε.Χ.Δ.Τ.Ν.) και σε άλλο σημείο «Δεν μπορούμε να αποκλείσουμε τον κίνδυνο να ασκείται με τον τρόπο αυτό έμμεση πίεση στους δικαστές κατά τη λήψη των αποφάσεων και να αναγκαστούν να συμφωνήσουν με τον κανόνα ή η διοίκηση των δικαστηρίων να ελέγχει ποιοι αποκλίνουν από τον κανόνα» (παράγραφος 116 του Ε.Χ.Δ.Τ.Ν.). Η πίεση γίνεται ακόμα πιο φορτική όταν ήδη ορισμένες εταιρίες ανακοίνωσαν ότι θα μπορούσαν να διαπιστώσουν προσωπικές απόψεις δικαστών και να εγείρουν υποψίες μεροληψίας (παράγραφος 86 του Ε.Χ.Δ.Τ.Ν.) όταν η κρίση τους διαφέρει σε σχέση με προηγούμενες κρίσεις ή είναι διαφορετική από τις προσωπικές και δημόσιες δηλώσεις τους ή δεν εξηγείται με βάση τα στοιχεία της προσωπικότητάς τους. Με άλλα λόγια θα τίθεται στον δικαστικό λειτουργό το δίλημμα να εξακολουθεί να αναπαράγει συνειδητά μια εσφαλμένη άποψη ή να μεταβάλει τη θέση του αναλαμβάνοντας τον κίνδυνο έγερσης υπονοιών μεροληψίας και επιβολής σοβαρών κυρώσεων σε βάρος του.
Αμφισβητούμενη είναι η αξιοπιστία των αλγορίθμων ιδιαίτερα αν συνδυαστεί με την αδιαφάνεια στη μεθοδολογία που χρησιμοποιούν οι ιδιωτικές εταιρίες (σχετικά η παράγραφος 131 του Ε.Χ.Δ.Τ.Ν.) Ο κίνδυνος της «παράλειψης δεδομένων», της επιλογής μόνο των δεδομένων που ταιριάζουν σε προκαθορισμένα πλαίσια ανάλυσης αποκλείοντας αποφάσεις που δεν ανταποκρίνονται εύκολα στους συσχετισμούς γλωσσικών αλληλουχιών (παράγραφος 101 του Ε.Χ.Δ.Τ.Ν.) είναι η πλευρά μόνο της τεχνικής και χωρίς δόλο αδυναμίας ανταπόκρισης στην πραγματικότητα. Η συζήτηση φτάνει σε άλλο επίπεδο όταν τίθενται ερωτήματα όπως «Πώς θα υπολογιστεί η αποζημίωση που προτείνει το πρόγραμμα; Με ποια μέθοδο; Ο αλγόριθμος θα επεξεργάζεται δίκαια τις πληροφορίες;» (παράγραφος 107 του Ε.Χ.Δ.Τ.Ν.). Ο εγκληματολόγος Ales Zavrsnik υπογραμμίζει ότι «η κατασκευή και ερμηνεία των αλγορίθμων γίνονται από τον άνθρωπο για τον άνθρωπο και δεν μπορούν να αποφευχθούν σφάλματα, προκαταλήψεις, αξίες, ανθρώπινα συμφέροντα και μια ανθρώπινη αναπαράσταση του κόσμου». Ανάλογη εμπειρία υπάρχει ήδη στους δικαστικούς λειτουργούς από τις Τράπεζες Νομικών Πληροφοριών οι οποίες έχουν τη δυνατότητα κατά την διαχείριση του τεράστιου όγκου πληροφοριών να υπερπροβάλουν ή να υποβαθμίσουν συγκεκριμένες νομικές θέσεις και να μεταβάλουν ακόμα και τη νομολογία των δικαστηρίων. Ο Ε.Χ.Δ.Τ.Ν. αναγνωρίζει ότι «δεν είναι καθόλου απίθανη η διακριτική και μη χρήση συστημάτων αναφοράς επί πληρωμή (στα πρότυπα της διαφήμισης στη μηχανή αναζήτησης της Google) που θα επιτρέπουν σε ορισμένους φορείς να δίνουν λιγότερο βάρος σε αποφάσεις που είναι μη ευνοϊκές γι’ αυτούς» (παράγραφος 159).
Ειδικότερα στον ευαίσθητο τομέα του ποινικού δικαίου η χρήση αλγοριθμικών μεταβλητών μπορεί να αναπαράγει αδικαιολόγητες και ήδη υπάρχουσες ανισότητες και στερεότυπα σε ένα συγκεκριμένο σύστημα ποινικής δικαιοσύνης και αντί να διορθώσει η τεχνολογία ορισμένες προβληματικές πολιτικές, αντίθετα να καταλήξει να τις νομιμοποιήσει. Πρόσφατα ο Λουτσιάνο Φλορίντι, καθηγητής Φιλοσοφίας και Ηθικής της Πληροφορίας στο Πανεπιστήμιο της Οξφόρδης, σε συνέντευξή του στην Εφημερίδα Καθημερινή (2-8-2020) εξέφρασε τις σοβαρές ανησυχίες του από τη χρήση της Τεχνητής Νοημοσύνης στον τομέα αυτό: «Βλέπω εξαίσια πράγματα αλλά βλέπω και φρικτά πράγματα, όπως τις διακρίσεις στο αμερικανικό δικαστικό σύστημα».
Συμπεράσματα: Οι προβληματισμοί και οι σοβαρές επιφυλάξεις που εκτέθηκαν παραπάνω για την εφαρμογή της Τεχνητής Νοημοσύνης στο χώρο της Δικαιοσύνης δε συνδέονται με την αδιαμφισβήτητη ανάγκη εκσυγχρονισμού και προσαρμογής στα νέα τεχνολογικά δεδομένα. Οι πρόοδοι στον τομέα των ηλεκτρονικών υπολογιστών δεν μπορούν να μας αφήνουν αδιάφορους και θα συνιστούσε οπισθοδρόμηση να εναντιωνόμαστε ως νέοι Λουδίτες με αδικαιολόγητη καχυποψία σε κάθε τι καινοτόμο. Αντίθετα αποτελεί πάγιο αίτημα της Ένωσης Δικαστών και Εισαγγελέων η μηχανοργάνωση των Δικαστηρίων, η κάλυψη κάθε Δικαστηρίου με ηλεκτρονικούς υπολογιστές και εκτυπωτές ανάλογους με τον αριθμό των υπηρετούντων Δικαστών και Εισαγγελέων, ο εκσυγχρονισμός του τηλεπικοινωνιακού δικτύου ώστε να υπάρχει δυνατότητα πρόσβασης στο διαδίκτυο. Η Ελλάδα προφανώς δεν ακολουθεί τον τεχνολογικό βηματισμό της υπόλοιπης Ευρώπης όχι διότι τάχα δεν εναρμονίστηκε με τις πρακτικές της Τεχνητής Νοημοσύνης αλλά διότι για παράδειγμα στο μεγαλύτερο Δικαστήριο της Χώρας, στο Πρωτοδικείο των Αθηνών που υπηρετούν 450 δικαστές υπάρχουν 6 ηλεκτρονικοί υπολογιστές και 3 εκτυπωτές (εκ των οποίων ο ένας είναι δωρεά της Ένωσης Δικαστών και Εισαγγελέων) και είναι πολύ δύσκολη η πρόσβαση στο διαδίκτυο. Δικαιούμαστε ωστόσο να διερευνήσουμε από ποιόν αξιοποιείται μια νέα τεχνολογία και σε τι αποβλέπει. Η Τεχνητή Νοημοσύνη ως προβλεπτική Δικαιοσύνη ή με τη μορφή της κατάρτισης προφίλ δικαστών, μαρτύρων, κατηγορουμένων, παραγόντων της δίκης ή ως πλατφόρμα δικαστικής και εξωδικαστικής επίλυσης διαφορών συνιστά ένα επικίνδυνο εργαλείο με πολλαπλές χρήσεις στα χέρια ιδιωτικών εταιριών. Θα μπορεί δυνητικά να καθοδηγεί και να εκφοβίζει δικαστικούς λειτουργούς, ενώ ταυτόχρονα καταργεί την αρχή της νομιμότητας και την αρχή του φυσικού δικαστή, υποτάσσει το τεκμήριο της αθωότητας σε αδιαφανείς διαδικασίες, αναπαράγει στερεότυπα και προκαταλήψεις, παραβιάζει την ίδια τη Συνταγματική πρόβλεψη για δικαίωμα δίκαιης δίκης ενώπιον δικαστών, άρα ενώπιον φυσικών προσώπων. Αξιοποιείται από ιδιωτικές εταιρίες και Κράτη που θέλουν να υποκαταστήσουν την ανεξάρτητη, απρόβλεπτη και άρα επικίνδυνη ανθρώπινη σκέψη με ελεγχόμενες ψηφιακές πλατφόρμες και λογισμικά που οδηγούν σε δεδομένα αποτελέσματα. Η Τεχνητή Νοημοσύνη είναι η δίδυμη αδελφή των υποχρεωτικών μορφών ιδιωτικής διαμεσολάβησης στο χώρο της Δικαιοσύνης. Γι’ αυτό έχουν την ίδια δικαιολογητική βάση: Μείωση των δαπανών, κατάργηση των χρονοβόρων διαδικασιών για την έκδοση μιας δικαστικής απόφασης, αποσυμφόρηση της σωρευμένης ύλης. Η Δικαιοσύνη ως κρατική λειτουργία ατροφεί. Η δικαστική απόφαση ως έργο ανεξάρτητων κρατικών λειτουργών, ως ανθρώπινη σκέψη, με κάθε πιθανότητα σφάλματος, είναι αρκετά δύσκολο να τυποποιηθεί και να μπει εκ των προτέρων σε καλούπια. Μεθοδικά και με στοχευμένη «ενημέρωση» των πολιτών ιδιωτικές εταιρίες, διεθνείς οργανισμοί, Κράτη, ΜΜΕ, ειδικοί επιστήμονες στρέφουν σε μια προκαθορισμένη κατεύθυνση. Το δίλημμα δεν μπαίνει συνεπώς όπως το έθεσε ο Υπουργός της Δικαιοσύνης: ή με την πολιτισμένη Ευρώπη ή οπισθοδρόμηση. Φωνές αντίστασης, ασυμβίβαστοι άνθρωποι, διορατικοί και ανήσυχοι επιστήμονες υπάρχουν σε όλο τον κόσμο, μόνο που είναι δύσκολο να ακουστούν. Αργά ή γρήγορα η παγκόσμια κοινότητα θα αναρωτιέται: Δικαιοσύνη από ποιόν και για ποιους;