Προβλήματα εφαρμογής του δίκαιου αποδείξεων από τη χρήση συστημάτων τεχνητής νοημοσύνης

74
2026
ΤΕΥΧΟΣ 01

 

Προβλήματα εφαρμογής του δικαίου αποδείξεων 

από τη χρήση συστημάτων τεχνητής νοημοσύνης

Δρ Δήμητρας Πηλαβάκη

Δικηγόρου, Μεταδιδακτορικής ερευνήτριας 

στον τομέα Ιδιωτικού Δικαίου ΔΠΘ

 

Η θεσμοθέτηση της χρήσης των συστημάτων τεχνητής νοημοσύνης με τον Κανονισμό 2024/ 1689 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη1 οδηγεί στην περαιτέρω αξιοποίησής τους ως νέων τεχνολογικών εργαλείων, για την επιτάχυνση της ψηφιοποίησης απονομής της δικαιοσύνης. Η ενσωμάτωσή της στα δικαστήρια ως μέσο για την επίλυση δικαστικών διαφορών σηματοδοτεί μια νέα εποχή για την ταχύτερη έκδοση δικαστικών αποφάσεων. Ωστόσο, ο παραπάνω Κανονισμός ακολουθώντας την κινδυνολογική προσέγγιση των συστημάτων νοημοσύνης, ταξινομεί τα συστήματα που διατίθενται για την απονομή δικαιοσύνης, ως υψηλού κινδύνου βάσει της υπ’ αριθμόν 61 αιτιολογικής σκέψης του, καθώς έχουν σημαντικό αντίκτυπο στη δημοκρατία, το κράτος δικαίου και τις ατομικές ελευθερίες, αλλά και στο δικαίωμα πραγματικής προσφυγής και αμερόληπτου δικαστηρίου. Ειδικότερα, σύμφωνα με την ως άνω αιτιολογική σκέψη «για την αντιμετώπιση των κινδύνων δυνητικών προκαταλήψεων, σφαλμάτων και α­διαφάνειας, ενδείκνυται να χαρακτηριστούν ως υψηλού κινδύνου2 τα συστήματα ΤΝ που προορίζονται για χρήση από δικαστική αρχή ή για λογαριασμό δικαστικής αρχής με σκοπό την παροχή συνδρομής σε δικαστικές αρχές κατά την έρευνα και την ερμηνεία των πραγματικών περιστατικών και του νόμου και κατά την εφαρμογή του νόμου σε συγκεκριμένο σύνολο πραγματικών περιστατικών». Επομένως, η αποκλειστική χρήση της, κατά την διαδικασία σχηματισμού δικανικής πεποίθησης από τον πραγματικό δικαστή, δύναται να δημιουργήσει πολλαπλά νομικά ζητήματα σχετικά με την ορθή εφαρμογή του δικαίου των αποδείξεων.

Ως σύστημα τεχνητής νοημοσύνης βάσει του άρθρου 3 § 1 του ως άνω Κανονισμού, ορίζεται «το μηχανικό σύστημα που έχει σχεδιαστεί για να λειτουργεί με διαφορετικά επίπεδα αυτονομίας και μπορεί να παρουσιάζει προσαρμοστικότητα μετά την εφαρμογή του και το οποίο, για ρητούς ή σιωπηρούς στόχους, συνάγει, από τα στοιχεία εισόδου που λαμβάνει, πώς να παράγει στοιχεία εξόδου, όπως προβλέψεις, περιεχόμενο, συστάσεις ή αποφάσεις που μπορούν να επηρεάσουν υλικά ή εικονικά περιβάλλοντα».

Κατ’ εφαρμογή του παραπάνω ορισμού, η χρήση μιας εφαρμογής τεχνητής νοημοσύνης, όπου έχει εισαχθεί μεγάλος όγκος νομολογιακών και πραγματικών δεδομένων και η οποία σε σύντομο χρονικό διάστημα μπορεί να εξάγει το πόρισμα που προτείνεται στον χειριστή δικαστή3, θα αποτελούσε την επιθυμητή λύση για την διεκπεραίωση μεγάλου αριθμού υποθέσεων, θεραπεύοντας εν μέρει τις παθογένειες που αντιμετωπίζει το σύστημα απονομής δικαιοσύνης. Ειδικότερα, η λειτουργία της κατά τέτοιο τρόπο, έτσι ώστε να αξιολογεί τα προσαγόμενα αποδεικτικά μέσα από τους διαδίκους, για την απόδειξη των κρίσιμων πραγματικών περιστατικών μιας υπόθεσης και να προβαίνει στην προβλεψιμότητα των πιθανών συμπερασμάτων, ανάλογα με την διαθεσιμότητα των δεδομένων της, προσφέρει σημαντικό πλεονέκτημα στον δικαστικό λειτουργό, για τον σχηματισμό της τελικής αιτιολογημένης κρίσης του επί της ερευνώμενης περίπτωσης. 

 Τα αποδεικτικά μέσα όπως ορίζονται στο άρθρο 339 ΚΠολΔ είναι η ομολογία, η αυτοψία, η πραγματογνωμοσύνη, τα έγγραφα, η εξέταση των διαδίκων, οι μάρτυρες, τα δικαστικά τεκμήρια και οι ένορκες βεβαιώσεις και εκτιμώνται ελεύθερα σύμφωνα με την κατ’ άρθρο 340 § 2 ΚΠολΔ αρχή της ελεύθερης εκτίμησης των αποδείξεων4. Ας υποθέσουμε ότι σε εκκρεμή δίκη που αφορά αγωγή αποζημίωσης, λόγω δυστυχήματος με τρένο, επιλέγει ένας από τους διαδίκους την προσκόμιση γνωμοδότησης προσώπου που έχει ειδικές γνώσεις, με την οποία διατυπώνει τη γνώμη του, σχετικά με την τήρηση εκ μέρους του μηχανοδηγού αλλά και των άλλων αρμοδίων, των μέτρων ασφαλείας που είναι απαραίτητα για την ορθή λειτουργία της αμαξοστοιχίας και των σηματοδοτών κυκλοφορίας. Το συγκεκριμένο αποδεικτικό μέσο είναι γνωμοδότηση πραγματογνώμονα5 και εκτιμάται ε­λεύθερα από το δικαστήριο κατά πόσο οι εισφερόμενοι ισχυρισμοί που αποτυπώνονται σ’ αυτήν είναι αληθινοί. Σε αυτό το σημείο μπορεί να αξιοποιηθεί ένα σύστημα τεχνητής νοημοσύνης. Αναλυτικότερα, η αναζήτηση εκ μέρους του δικαστή, των πραγματικών δεδομένων για την επαλήθευση της προσαγόμενης γνωμοδότησης θα τον βοηθήσει στην διαμόρφωση της τελικής άποψής του περί του δυστυχήματος. Επίσης, εισάγοντας τα δεδομένα της ερευνώμενης υπόθεσης στην μηχανή τεχνητής νοημοσύνης, μπορεί να εξάγει αποτελέσματα σχετικά με το τι συμβαίνει σε περίπτωση ατυχήματος με αμαξοστοιχία και ποια αίτια μπορεί να οδήγησαν στην βλάβη του συστήματος χειρισμού της. Ακόμα, μπορεί να ερευνήσει τεχνικές λεπτομέρειες σχετικά με τα αναγκαία μέτρα επιμέλειας που ήταν απαραίτητο να τηρηθούν για την σωστή λειτουργία της. Με την επεξεργασία των δεδομένων τεχνητής νοημοσύνης, εκτιμά την νομιμότητα ή όχι της πηγής κίνδυνου που οδήγησε στο συγκεκριμένο αποτέλεσμα. Τέλος, ερευνώντας παρόμοιες νομολογιακές περιπτώσεις, μπορεί να προσδιορίσει το ζήτημα της ευθύνης αλλά και της υπαιτιότητας των εμπλεκόμενων προσώπων. 

 Ωστόσο, τίθεται το εύλογο ερώτημα κατά πόσο η εκτίμηση των στατιστικών δεδομένων μιας μηχανής τεχνητής νοημοσύνης υπόκειται σε έλεγχο από την προσωπική κρίση του δικαστή ή υποκαθιστά την δημιουργία δικανικής πεποίθησης από τον ίδιο, που εν τέλει γίνεται δέσμιος των τυποποιημένων αποτελεσμάτων της ψηφιακής τεχνολογίας6, στα ίδια πλαίσια όπως μπορεί να συμβαίνει με την γνωμοδότηση του πραγματογνώμονα. Απλώς, ο δικαστής, αποκλείοντας την εν λόγω γνωμοδότηση θα πρέπει να αιτιολογήσει, όπως σε κάθε περίπτωση προσκόμισης γνωμοδότησης7.

 Ένα ακόμη καίριο ζήτημα σχετικά με το εξαγόμενο συμπέρασμα από την τεχνητή νοημοσύνη, είναι η αμεροληψία8 και διαφάνειά της9. Συγκεκριμένα, οι προβλέψεις που παρέχει, δεν αποτελούν προϊόν ανθρώπινης επέμβασης αλλά συνδυασμό ήδη υπαρχόντων στοιχείων, κατόπιν ανάλυσης δεδομένων μεγάλου όγκου δεδομένων με τα οποία έχει τροφοδοτηθεί από τους χειριστές της10. Συνεπώς, σε πολλές περιπτώσεις μπορεί να καταλήξει σε αυθαίρετες κρίσεις σχετικά με το ερευνώμενο ζήτημα, καθώς η εισαγωγή όγκου δεδομένων που προωθούν κοινωνικές ανισότητες, προκαταλήψεις και διακρίσεις έχει ως αποτέλεσμα την ανάδειξη και την αναπαραγωγή μοτίβων μεροληπτικής συμπεριφοράς11. Η υιοθέτηση των συγκεκριμένων αποτελεσμάτων της τεχνητής νοημοσύνης εκ μέρους του δικαστή, χωρίς την προσωπική κριτική σκέψη του12, παραβιάζει ευθέως το άρθρο 340 § 2 ΚΠολΔ.

 Καταλήγοντας, η τεχνητή νοημοσύνη ουδέποτε μπορεί να αντικαταστήσει την θέση του φυσικού δικαστή13, ο οποίος προβαίνει στην εκτίμηση των αποδείξεων με προσφυγή στα διδάγματα κοινής πείρας, αμερόληπτα και ανεξάρτητα, με πλήρη αιτιολογία των αποφάσεών του. Η εμπειρία του και διαμόρφωση της εξατομικευμένης αξιολογικής κρίσης του κατά την έκδοση μίας δικαστικής απόφασης η οποία δεν είναι ανέλεγκτη14, δεν μπορεί να αποτελεί προϊόν αυτοματοποιημένης επεξεργασίας μιας υπολογιστικής μηχανής15. Τα μοναδικά χαρακτηριστικά της κάθε εξεταζόμενης υπόθεσης δεν δύναται να αποτελέσουν έργο μιας εφαρμογής τεχνητής νοημοσύνης, καθώς ο αλγόριθμος δεν μπορεί να προβεί στο σχηματισμό δικανικού συλλογισμού16 και να εξάγει διαφορετικό συμπέρασμα σε όμοιες υποθέσεις17. Βέβαια, το γεγονός αυτό δεν αναιρεί την αξιοποίηση των συστημάτων τεχνητής νοημοσύνης ως βοηθημάτων στα δικαστήρια18 και στην προσπάθεια μείωσης του όγκου των δικαστικών υποθέσεων. Όμως, η χρήση των προβλεπτικών αποτελεσμάτων τους, δεν πρέπει να υποκαθιστά την προσωπική πεποίθηση του δικαστή περί της υπαιτιότητας και της ευθύνης, καθώς τίθεται σε κίνδυνο η ασφάλεια δίκαιου στην οποία συμβάλλει και το μέτρο αποδείξεως του άρθρου 340 ΚΠολΔ19. Άλλωστε κάτι τέτοιο απαγορεύεται και από το ίδιο το Σύνταγμα. Με βάση το άρθρο 87 § 1 Σ, η δικαιοσύνη απονέμεται από δικαστήρια συγκροτούμενα μόνο από τακτικούς δικαστές που απολαμβάνουν προσωπικής και λειτουργικής ανεξαρτησίας και φέρουν την ευθύνη των επιλογών τους. Αντίστοιχα, τι ευθύνη μπορεί να ζητηθεί από ένα σύστημα τεχνητής νοημοσύνης; Έτσι, η χρησιμοποίηση των στατιστικών συμπερασμάτων της τεχνητής νοημοσύνης από τον φυσικό δικαστή πρέπει να σταματάει εκεί που άρχεται ο καταλογισμός της ευθύνης των υπαιτίων προσώπων.

Συμπερασματικά, η απονομή του δικαιοδοτικού έργου είναι καθαρά ανθρωποκεντρική υπόθεση20 και σε καμία περίπτωση δεν μπορεί 
να αντικατασταθεί από ένα σύστημα τεχνητής νοημοσύνης κατ’ εικόνα και καθ’ ομοίωσιν του ανθρώπου.

 

 

  • 1

    Κανονισμός (ΕΕ) 2024/1689 του Ευρωπαϊκού Κοινοβουλίου του Συμβουλίου της 13ης Ιουνίου 2024 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη και την τροποποίηση των Κανονισμών (ΕΚ) αριθ. 300/2008, (ΕΕ) αριθ. 167/2013, (ΕΕ) αριθ. 168/2013, (ΕΕ) 2018/858, (ΕΕ) 2018/1139 και (ΕΕ) 2019/2144 και των Οδηγιών 2014/90/ΕΕ, (ΕΕ) 2016/797 και (ΕΕ) 2020/1828 (Κανονισμός για την τεχνητή νοημοσύνη), https://eur-lex.europa.eu/legal-content/EL/TXT/PDF/?uri=OJ:L_202401689.

  • 2

    Για έννοια συστημάτων υψηλού κινδύνου βλ. άρθρ. 6 του Κανονισμού 2024/1689 και Ι. Ιγγλεζάκης, Το δίκαιο της ψηφιακής οικονομίας, 2η έκδ., 2024, σ. 22-229, τον ίδιο, Δίκαιο Πληροφορικής, 2024, σ. 299-300.

  • 3

    Ο. Κώστα, Τεχνητή Νοημοσύνη στη Δικαιοσύνη: Χρήσιμο εργαλείο ή απειλή στην απονομή της; Επιθεώρηση Ακινήτων, 1 (2024), sakkoulas-online.

  • 4

    Κ. Κεραμεύς /Δ. Κονδύλης/Ν. Νίκας, Ερμηνεία ΚΠολΔ, τόμ. 1, 2000, σ.691-692.

  • 5

    Χ.-Ι. Χατζηδημητρίου, Μορφές ανισχύρου κατά την αποδεικτική διαδικασία πολιτικής δίκης, 2025, σ. 275. Ζ. Χατζηγιαννάκος, Η Δικαστική Πραγματογνωμοσύνη κατά τον ΚΠολΔ, 2020, σ.13.

  • 6

    ΔΜανιώτης, Justitia ex machina. Αφορμή για προβληματισμό, σε: Συλλογικό Έργο, Τιμητικός Τόμος για την Καθηγήτρια Γιάννα Καρύμπαλη-Τσίπτσιου, τόμ. 2, 2022, σ. 1111, sakkoulas-online. 

  • 7

    Κ. Κεραμεύς/Δ. Κονδύλης/Ν. Νίκας, Ερμηνεία ΚΠολΔ, τόμ. 1, 2000, σ. 692.

  • 8

    Π. Χριστοδούλου, Η ηλεκτρονική κατάθεση δικογράφων κατά τον ΚΠολΔ, «Η επίδραση της Τεχνητής Νοημοσύνης στην ψηφιακή δικαιοσύνη», 2025, σ. 35.

  • 9

    Βάσει του άρθρου 13 Κανονισμού 2024/1689 «Τα συστήματα ΤΝ υψηλού κινδύνου σχεδιάζονται και αναπτύσσονται κατά τρόπο που διασφαλίζει ότι η λειτουργία τους είναι επαρκώς διαφανής, ώστε οι φορείς εφαρμογής να είναι σε θέση να ερμηνεύουν τα στοιχεία εξόδου ενός συστήματος και να τα χρησιμοποιούν κατάλληλα. Διασφαλίζεται ο κατάλληλος τύπος και βαθμός διαφάνειας με σκοπό την επίτευξη συμμόρφωσης με τις σχετικές υποχρεώσεις του παρόχου και του φορέα εφαρμογής οι οποίες καθορίζονται στο τμήμα 3». 

  • 10

    Δ. Τραυλός-Τζανετάτος, Το δίκαιο ενώπιον της πρόκλησης των αλγορίθμων. Προς «ρομποτικούς» δικηγόρους και δικαστές; Ελληνική Δικαιοσύνη, 5 (2024), sakkoulas-online.

  • 11

    Φ. Σωτηριάδου, Τεχνητή νοημοσύνη και Δικαιοσύνη: Διεύρυνση ή συρρίκνωση του δικαιώματος δικαστικής προστασίας; Διοικητική Δίκη, 3 (2025), sakkoulas-online.

  • 12

    Φ. Σωτηριάδου/Γ. Μαρμαρίδης/Β. Φαϊτάς, Για την είσοδο της Τεχνητής Νοημοσύνης στην απονομή της Δικαιοσύνης, Ελληνική Δικαιοσύνη, 5 (2024), sakkoulas-online.

  • 13

    Την ίδια άποψη σε Χ. Μουκίου, Οι αλγόριθμοι και το διοικητικό δίκαιο, 2025, σ. 210.

  • 14

    Ένωση Δικαστώνκαι Εισαγγελέων, Αντεγ­κληματική πολιτική, ποινική νομοθεσία και δικαιοσύνη, 2025, σ. 145-152.

  • 15

    Την ίδια άποψη και ο P. Jougleux σε Ευρωπαϊκό Δίκαιο της Τεχνητής Νοημοσύνης, 2025, 95 § 320 τονίζει ότι «μια τέτοια χρήση θα αντέβαινε στην αρχή της ελευθερίας πρόσβασης σε δικαστήριο, που περιλαμβάνει το δικαίωμα να ακουστεί κάποιος από ανεξάρτητο και αμερόληπτο άνθρωπο». Βλ. και Φ. Σωτηριάδου, Τεχνητή νοημοσύνη και Δικαιοσύνη: Διεύρυνση ή συρρίκνωση του δικαιώματος δικαστικής προστασίας; σε Διοικητική Δίκη, 3 (2025), σ. 401, sakkoulas-online.

  • 16

    Β. Καραναστάσης, Υπάρχει εφαρμογή της Τεχνητής Νοημοσύνης στην Ελληνική Δικαιοσύνη; Το παράδειγμα των νόμων 4605/2019 και 4738/2020, Ελληνική Δικαιοσύνη, 5 (2024), sakkoulas-online.

  • 17

    Δ. Πετράκος, Η Τεχνητή Νοημοσύνη στη Δικαιοσύνη – Τα ρομπότ στην έδρα, οι άνθρωποι στο εδώλιο, https://www.syntagmawatch.gr/trending-issues /h-texnhth-nohmosynh-sth-dikaiosynh-ta-robot-sthn-edra-oi-anthrwpoi-sto-edwlio.

  • 18

    P. Jougleux, Ευρωπαϊκό Δίκαιο της Τεχνητής Νοημοσύνης, 2025, σ. 95. Γ. Ζέκος, Τεχνητή νοημοσύνη & ανταγωνισμός, 2024, σ. 119-120. 

  • 19

    ΔΜανιώτης, Justitia ex machina. Αφορμή για προβληματισμό, σε: Συλλογικό Έργο, Τιμητικός Τόμος για την Καθηγήτρια Γιάννα Καρύμπαλη-Τσίπτσιου, τόμ. 2, 2022, σ. 1112, sakkoulas-online .

  • 20

    Την ίδια άποψη και σε Π. Χριστοδούλου, Η ηλεκτρονική κατάθεση δικογράφων κατά τον ΚΠολΔ, «Η επίδραση της Τεχνητής Νοημοσύνης στην ψηφιακή δικαιοσύνη», 2025, σ. 36 και σε  Δ. Πετράκο,  Τεχνητή Νοημοσύνη και δικαιοσύνη - Συνταγματική θεμελίωση, κίνδυνοι και προοπτικές, ΕφΔΔ Τεύχος 5/2020. 654-677.

Close