Deepfakes ή ο εκβιασμός της ποινικής αποδεικτικής διαδικασίας στην εποχή της Τεχνητής Νοημοσύνης

Έτος:
2025
Εμφάνιση περισσότερων Εμφάνιση λιγότερων

Περίληψη

Η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να μαθαίνει, να κατανοεί και να σκέφτεται με λογικό τρόπο· μπορεί, άρα, να μαθαίνει και να διορθώνει λάθη. Οι μηχανικές απεικονίσεις που παράγονται μέσω της Τεχνητής Νοημοσύνης ενδέχεται να χρησιμοποιηθούν με διάφορους παράνομους τρόπους, με αποτέλεσμα να μειωθεί στο μέλλον η αξιοπιστία αυτών των αποδεικτικών μέσων. Στο άρθρο αυτό περιγράφεται η ικανότητα της Τεχνητής Νοημοσύνης και των προγραμμάτων της να δημιουργούν ιδιαίτερα πειστικές εικόνες και βίντεο, επηρεάζοντας και την αποδεικτική διαδικασία της ποινικής δίκης.

Εμφάνιση περισσότερων Εμφάνιση λιγότερων

Κείμενο

1. Η έννοια της Τεχνητής Νοημοσύνης
Είναι χαρακτηριστικό ότι τα τελευταία χρόνια η έννοια της Τεχνητής Νοημοσύνης (ΤΝ) έχει κατακλύσει την καθημερινότητα σε όλους σχεδόν τους τομείς. Σύμφωνα με τους Russell και Norvig, η τεχνητή νοημοσύνη ορίζεται ως η τέχνη της δημιουργίας και της μελέτης υπολογιστικών μηχανών που είναι σε θέση να αντιληφθούν, να αιτιολογήσουν, να ενεργήσουν και να λειτουργήσουν με τρόπο που απαιτείται νοημοσύνη. Παράλληλα, σύμφωνα με τον ΟΟΣΑ «Η Τεχνητή Νοημοσύνη είναι σύστημα που βασίζεται σε μηχανές που μπορεί, για ενός δεδομένου συνόλου στόχων που καθορίζονται από τον άνθρωπο, να κάνει προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν πραγματικά ή εικονικά περιβάλλοντα. […] Τα συστήματα AI έχουν σχεδιαστεί για να λειτουργούν με διαφορετικά επίπεδα αυτονομίας». Επίσης, η Τεχνητή Νοημοσύνη, σύμφωνα με την Ευρωπαϊκή Ένωση, μπορεί να οριστεί ως η ικανότητα που έχει μια μηχανή να μιμείται και να αναπαράγει τις γνωστικές λειτουργίες ενός ανθρώπου, όπως είναι για παράδειγμα η μάθηση, ο σχεδιασμός και η δημιουργικότητα. Με τον τρόπο αυτό, οι μηχανές είναι σε θέση, μέσω της συλλογής και της επεξεργασίας των συλλεγμένων δεδομένων, να κατανοούν το περιβάλλον και να επιλύουν προβλήματα. Το βασικό χαρακτηριστικό της Τεχνητής Νοημοσύνης είναι ότι έχει την ικανότητα να μαθαίνει από τις εμπειρίες και να προσαρμόζει τις πράξεις της με βάση τα νέα δεδομένα και τις γνώσεις που συλλέγει. Επομένως, επειδή ακριβώς η Τεχνητή Νοημοσύνη (ΤΝ) μαθαίνει, είναι σε θέση να βελτιώνεται συνεχώς μέσω της μάθησης, ένα στοιχείο που προσομοιάζει στην ανθρώπινη νοημοσύνη. Λόγω αυτής της δυνατότητας είναι σε θέση να συνδυάζει, να αντικαθιστά και να παράγει εικόνες και βίντεο, τα οποία δεν ανταποκρίνονται στην πραγματικότητα. Οι πλαστές, ωστόσο, μηχανικές απεικονίσεις, όπως οι εικόνες και τα βίντεο που παράγονται με αυτόν τον τρόπο, είναι ιδιαίτερα πειστικές λόγω της υψηλής ποιότητας κατανόησης και προσαρμοστικότητας του αλγορίθμου, σε σημείο που δεν είναι εύκολο να διακριθούν ακόμα και από ειδικούς.

Είναι χαρακτηριστικό ότι η ΤΝ, αν και δεν αποτελεί μία ιδιαίτερα καινούρια τεχνολογία, ακόμα βρίσκεται σε σχετικά πρώιμα στάδια και έχει παρουσιάσει μία εκθετική τάση ανάπτυξης τα τελευταία χρόνια, κυρίως λόγω της αύξησης της εισροής δεδομένων και της εξέλιξης των υπολογιστικών δυνατοτήτων των μηχανών, όπως επίσης και της μείωσης στο κόστος αποθήκευσης των δεδομένων. Στην πραγματικότητα, θεωρείται ότι πρόκειται για το μέτρο που θα καθορίσει τον τρόπο με τον οποίο θα εξελιχθεί η ανθρώπινη τεχνολογία στο μέλλον. Σε κάθε περίπτωση, καθώς αποτελεί μία ταχύτατα εξελισσόμενη τεχνολογία, τα αποτελέσματα και οι συνέπειες της χρήσης της δεν είναι ακόμα εμφανή σε όλες περιπτώσεις.

2. H Τεχνητή Νοημοσύνη στο πλαίσιο της δικαιοσύνης
Ένας από τους πολλούς κλάδους που επηρεάζονται από τη ραγδαία άνοδο της τεχνολογίας της Τεχνητής Νοημοσύνης είναι και αυτός της δικαιοσύνης. Πιο συγκεκριμένα, αρχικά, η ΤΝ μπορεί να αξιοποιηθεί - και ήδη αξιοποιείται για την αποτελεσματικότερη επεξεργασία μεγάλου όγκου δεδομένων - στο πλαίσιο της αστυνομικής έρευνας, γεγονός που είναι πιθανόν να οδηγήσει στην ταχύτερη επίλυση των εκκρεμών υποθέσεων. Επίσης, μπορεί να συμβάλλει στην οργάνωση και την ψηφιοποίηση του κλάδου της δικαιοσύνης, καθώς η Τεχνητή Νοημοσύνη επιφέρει μεγάλη αλλαγή στη διαδικασία συλλογής δικαστικών δεδομένων, αλλά και σε άλλους τομείς, στους οποίους - σε συγκεκριμένες προς το παρόν χώρες - λειτουργεί ως εργαλείο ή αποδεικτικό μέσο, ως τρόπος εξωδικαστικής
Σελ. 554 επίλυσης διαφορών και ως εργαλείο για την αυτόνομη λήψη αποφάσεων. Για παράδειγμα και με βάση στοιχεία της Ευρωπαϊκής Επιτροπής, σε σημαντικό αριθμό κρατών-μελών, λόγω της εξέλιξης της ΤΝ, παρατηρείται ταχύτατη διαδικασία ψηφιοποίησης των μητρώων και των βάσεων δεδομένων, ενώ παράλληλα οι πολίτες έχουν πρόσβαση σε ηλεκτρονικά αρχεία εκκρεμών αστικών και ποινικών υποθέσεων και μπορούν να υποβάλλουν αποδεικτικά στοιχεία σε ηλεκτρονική μορφή σε αστικές και εμπορικές υποθέσεις.

Από την άλλη πλευρά, η επικράτηση της ΤΝ μπορεί να επιφέρει σοβαρούς κινδύνους σχετικά με την απονομή της δικαιοσύνης και την επίτευξη μιας δίκαιης δίκης, που δεν έχουν ακόμα ερευνηθεί επαρκώς. Βασική παράμετρος είναι τα αποδεικτικά μέσα των μηχανικών απεικονίσεων στη δίκη, τα οποία στην εποχή της Τεχνητής Νοημοσύνης είναι πιθανόν να αμφισβητούνται ως προς τη γνησιότητά τους και να μην μπορούν πλέον να λαμβάνονται υπόψη άνευ ετέρου. Οι μηχανικές απεικονίσεις που έχουν παραχθεί μέσω της ΤΝ είναι δυνατόν να χρησιμοποιηθούν με διάφορους παράνομους τρόπους, όπως λ.χ. παραγωγή πλαστού πορνογραφικού υλικού χωρίς την συναίνεση των θυμάτων. Έτσι, η Τεχνητή Νοημοσύνη και η τεχνολογία της εναλλαγής προσώπου («βαθιά ψευδές υλικό») είναι πιθανόν να μειώσει στο μέλλον την αξιοπιστία των αποδεικτικών μέσων των μηχανικών απεικονίσεων και να περιορίσει την χρησιμότητά τους στην ποινική δίκη και στον σχηματισμό της δικανικής κρίσης.
3. Η σημασία των μηχανικών απεικονίσεων ως αποδεικτικών μέσων στην ποινική προδικασία και στη δίκη και η αμφισβήτηση της γνησιότητάς τους
Για να σχηματίσει δικανική κρίση το δικαστήριο της ουσίας σχετικά με τη βασιμότητα των πραγματικών ισχυρισμών των διαδίκων που έχουν ουσιώδη επιρροή στην έκβαση της δίκης, θα πρέπει να λαμβάνει υπόψη του τα νομίμως αποκτηθέντα και προσκομισθέντα αποδεικτικά μέσα, είτε για την άμεση απόδειξη είτε για τη συναγωγή δικαστικών τεκμηρίων, αν γίνεται σαφής και ορισμένη επίκλησή τους από τον διάδικο. Όσον αφορά στην αποδεικτική δύναμη των διάφορων αποδεικτικών μέσων, αυτή σχετίζεται με την επίδραση που έχει ή μπορεί να έχει κάποιο αποδεικτικό μέσο στον σχηματισμό της πεποίθησης του δικαστή. Το Δικαστήριο ουσίας εκτιμά ελεύθερα τις αποδείξεις και εξετάζει αν το αποδεικτικό μέσο είναι αξιόπιστο, γεγονός που ανήκει στην κυριαρχική και αναιρετικά ανέλεγκτη κρίση του.

Στο άρθρο 444 παρ. 2 του Κώδικα Πολιτικής Δικονομίας (ΚΠολΔ) ερμηνεύεται η έννοια της μηχανικής αποτύπωσης, η οποία ορίζεται ως «Μηχανική απεικόνιση, κατά την έννοια της παραγράφου 1, είναι και κάθε μέσο το οποίο χρησιμοποιείται από υπολογιστή ή περιφερειακή μνήμη υπολογιστή, με ηλεκτρονικό, μαγνητικό ή άλλο τρόπο, για εγγραφή, αποθήκευση, παραγωγή ή αναπαραγωγή στοιχείων, που δεν μπορούν να διαβαστούν άμεσα, όπως επίσης και κάθε μαγνητικό, ηλεκτρονικό ή άλλο υλικό στο οποίο εγγράφεται οποιαδήποτε πληροφορία, εικόνα, σύμβολο ή ήχος, αυτοτελώς ή σε συνδυασμό, εφόσον τα μέσα και τα υλικά αυτά προορίζονται ή είναι πρόσφορα να αποδείξουν γεγονότα που έχουν έννομη σημασία». Έτσι, στα αποδεικτικά μέσα περιλαμβάνονται οι μηχανικές απεικονίσεις ως ιδιωτικά έγγραφα και περιλαμβάνεται κάθε υλική αποτύπωση των οπτικών ή ακουστικών εντυπώσεων, η οποία πραγματοποιείται με οποιοδήποτε μηχανικό μέσο, όπως οι φωτογραφικές ή κινηματογραφικές αναπαραστάσεις, φωνοληψίες, οι βιντεοταινίες ή βιντεοκασέτες και κάθε άλλη μηχανική απεικόνιση.

Για να έχει αποδεικτική ισχύ μία μηχανική απεικόνιση θα πρέπει, σύμφωνα με την ανωτέρω διάταξη, να είναι πρόσφορη ή να προορίζεται να αποδείξει γεγονότα με έννομη αξία. Έτσι, θα πρέπει να παρουσιάζει το επίδικο γεγονός κατά τη στιγμή της τέλεσής του ή κατά τη χρονική διάρκειά του. Η αμφισβήτηση της γνησιότητας των αναπαραστάσεων σχετίζεται με την άρνηση ότι το συγκεκριμένο στοιχείο απεικονίζει ένα γεγονός που πράγματι συνέβη στον πραγματικό κόσμο και ότι η απεικόνιση έχει προκύψει μέσω μηχανικής παραποίησης. Πιο συγκεκριμένα, στην ποινική δίκη, αν αμφισβητηθεί η γνησιότητα ενός εγγράφου, τότε το Δικαστήριο καλείται να ελέγξει με κάθε επιτρεπόμενο αποδεικτικό μέσο τη γνησιότητά του, αναλογικά βάσει των διατάξεων του ΚΠολΔ για τη γνησιότητα των δημοσίων και των ιδιωτικών εγγράφων (άρθρα 455-457 ΚΠολΔ). Πιο συγκεκριμένα, το άρθρο 457 παρ.4 ΚΠολΔ ορίζει ότι αν αμφισβητείται η γνησιότητα των μηχανικών απεικονίσεων, το βάρος απόδειξης της γνησιότητας ανήκει σε εκείνον που τις επικαλείται και τις προσάγει. Επίσης, αν ένα συγκεκριμένο έγγραφο, όπως οι φωτογραφίες, που προσκομίζεται στην ποινική δίκη, προσβληθεί ως πλαστό, το Δικαστήριο καλείται να ερευνήσει κατά το δυνατόν τη γνησιότητά του.

Είναι χαρακτηριστικό ότι οι εικόνες και κυρίως τα βίντεο τείνουν να λαμβάνονται υπόψη ως άμεση απόδειξη όσων αποτυπώνουν, εκτός αν αμφισβητηθούν ή αν είναι εξόφθαλμα παραποιημένες, οπότε η πλαστότητα λαμβάνεται υπόψη αυτεπαγγέλτως κατ’ αναλογική εφαρμογή του άρθρου 457 παρ. 1 ΚΠολΔ. Έτσι, οι εικόνες γίνονται συνήθως αποδεκτές ως αποδεικτικά στοιχεία και τείνουν να πείθουν για την αλήθεια ενός «γεγονότος» περισσότερο από μία μαρτυρική κατάθεση, στην οποία παρεισφρέει συνήθως και η αδυναμία της ανθρώπινης μνήμης ή η τυχόν δόλια παραποίηση της αλήθειας. Γίνεται, λοιπόν εμφανές ότι η δύναμη των οπτικών και ηχητικών αναπαραστάσεων ως αποδεικτικών μέσων μπορεί να χρησιμοποιηθεί για να φαλκιδεύσει την αλήθεια και να οδηγήσει σε δικαστικές πλάνες.
4. Η Τεχνητή Νοημοσύνη και η τεχνολογία των Deepfake
Μάλιστα, η Τεχνητή Νοημοσύνη στο πλαίσιο των μηχανικών απεικονίσεων, όπως των φωτογραφιών, των βίντεο και των φωνοληψιών, συνεχώς εξελίσσεται και ο αλγόριθμος μαθαίνει με έναν τρόπο παρόμοιο με την ανθρώπινη νοημοσύνη και εντελώς πρωτόγνωρο για τα επιστημονικά δεδομένα. Οι ει
Σελ. 555 κόνες που παράγονται μέσω της ΤΝ δεν είναι εύκολο να διακριθούν ως πλαστές, ακόμα και από τους ίδιους τους ειδικούς της ψηφιακής-ηλεκτρονικής σήμανσης («digital forensics»). Επομένως, καθώς εξελίσσεται η τεχνολογία της ΤΝ, είναι όλο και πιο πιθανόν τα μηχανικά μέσα να χάσουν την σημαντική αποδεικτική τους αξία κατά τον σχηματισμό της δικανικής κρίσης.
Πιο συγκεκριμένα, η τεχνολογία εναλλαγής προσώπου («βαθιά ψευδές υλικό») σε φωτογραφίες και βίντεο («face-swap technology/deepfake», όρος που προκύπτει από τον συνδυασμό των λέξεων Deep learning [= εις βάθος μάθηση] και fake [= ψευδής]) αποτελεί ένα σύστημα Τεχνητής Νοημοσύνης που δημιουργεί συνθετικά μέσα, συμπεριλαμβανομένων των εικόνων, των βίντεο και του ήχου, τα οποία απεικονίζουν μία κατάσταση που δεν υπάρχει στην πραγματικότητα ή συνθήκες που δεν συνέβησαν ποτέ. Με άλλα λόγια, η τεχνολογία αυτή είναι σε θέση να διαμορφώνει ιδιαίτερα ρεαλιστικές εικόνες και βίντεο, τα οποία απεικονίζουν, με τρόπο αληθοφανή, καταστάσεις που δεν ανταποκρίνονται ή δεν ανταποκρίνονταν στην πραγματικότητα.

Για να επιτευχθεί αυτό, η τεχνολογία της εναλλαγής προσώπων αξιοποιεί δύο διαφορετικούς αλγόριθμους εις βάθος μάθησης ΤΝ: από τη μία πλευρά, ο ένας διαμορφώνει το καλύτερο δυνατό αντίγραφο μιας πραγματικής εικόνας ή βίντεο και, από την άλλη, ο δεύτερος ανιχνεύει, εάν το αντίγραφο είναι ψεύτικο και, εάν είναι, αναφέρει τις διαφορές μεταξύ αυτού και του πρωτότυπου. Έτσι, οι δύο αλγόριθμοι λειτουργούν συνδυαστικά και ο μεν πρώτος παράγει την εικόνα, ενώ ο δεύτερος του προσφέρει ανατροφοδότηση, περικειμένου να την αναπροσαρμόσει για να προσομοιάζει με μία αληθινή εικόνα. Η διαδικασία επαναλαμβάνεται όσες φορές χρειάζεται, ώστε ο δεύτερος αλγόριθμος να μην μπορεί να εντοπίσει ψευδείς εικόνες. Το πρόγραμμα αυτό δεν χρειάζεται ανθρώπινη παρέμβαση, αφού έχει ολοκληρωθεί η μηχανική διαδικασία μάθησης. Συνοπτικά, οι δύο αλγόριθμοι έχουν τη σχέση «καθηγητή και μαθητή», με τη διαφορά ότι και ο καθηγητής συνέχεια μαθαίνει αντίστοιχα με τον μαθητή.
Από την άλλη πλευρά, όσον αφορά τα βίντεο, είναι δυνατόν να αναπαραχθεί η φωνή ενός ατόμου, μέσω της τροφοδοσίας ενός μοντέλου ΤΝ με δεδομένα ήχου από το άτομο αυτό, οδηγώντας το έτσι να εκπαιδευτεί στη μίμησή του. Συνήθως αξιοποιούνται υπάρχοντα πλάνα του ατόμου, τα οποία μεταγλωττίζονται με τη χρήση ήχου που δημιουργείται μέσω της ΤΝ, η οποία μιμείται αποτελεσματικά τη φωνή του.

Γίνεται, επομένως, φανερό ότι τέτοιου είδους εικόνες και βίντεο μπορούν να αξιοποιηθούν ως πλαστά αποδεικτικά μέσα κατά την ποινική προδικασία και να οδηγήσουν σε μία λανθασμένη δικανική κρίση βασισμένη σε ψευδείς, αλλά ιδιαίτερα αληθοφανείς, αποδείξεις. Μάλιστα, λόγω της ταχύτατης εξέλιξης της τεχνολογίας της ΤΝ, είναι εξαιρετικά πιθανόν στο εγγύς μέλλον να είναι αδύνατον να διακριθεί μία αληθινή αναπαράσταση από μία πλαστή, δημιουργώντας βάσιμους προβληματισμούς για την αυθεντικότητα των προσκομιζόμενων σε ένα δικαστήριο αποδεικτικών μέσων. Επομένως, ακόμα και όταν πρόκειται για αποδεικτικά μέσα, όπως οι φωτογραφίες και τα βίντεο, τα οποία μέχρι σήμερα ήταν σχετικά ασφαλή για την ανάδειξη της αλήθειας, με την εισροή της Τεχνητής Νοημοσύνης η υφιστάμενη δικανική αξιοποίηση φαίνεται να ανατρέπεται και ιδρύει την ανάγκη για τη διαμόρφωση μίας νέας διαδικασίας εκτίμησης και αξιολόγησης των αποδείξεων.

Παράλληλα, είναι ιδιαίτερα σοβαρό το ζήτημα της χρήσης των deepfakes και στο πλαίσιο ανακριτικής διείσδυσης ως μέσων πίεσης συγκεκριμένων ατόμων. Ως ανακριτική διείσδυση (ή αστυνομική παγίδευση) ορίζεται η πρακτική εκείνη, στην οποία οι ανακριτικές ή οι αστυνομικές αρχές λειτουργούν με τρόπο συγκαλυμμένο, κυρίως με τη χρήση είτε των ίδιων των ανακριτικών υπαλλήλων, είτε άλλων, εμπίστων προσώπων (και ιδιωτών), με σκοπό τη συλλογή του αναγκαίου αποδεικτικού υλικού ή την κατάληψη του δράστη την στιγμή τέλεσης της αξιόποινης πράξης. Στο πλαίσιο αυτών των διεργασιών των (προ-)ανακριτικών αρχών, οι deepfakes είναι δυνατόν να αξιοποιηθούν για την παραγωγή ψευδών εικόνων ή καταστάσεων, με σκοπό τη διαμόρφωση μίας συνθήκης που θα μπορούσε να οδηγήσει στην απόσπαση ομολογίας από υπόπτους ή στην εξάρθρωση εγκληματικών κυκλωμάτων. Το ζήτημα που τίθεται, όμως, είναι αν αυτές οι δράσεις των Αρχών είναι συμβατές με τη δίκαιη δίκη του αρ.6 της ΕΣΔΑ και το δικαίωμα της σιωπής και της μη αυτοενοχοποίησης του κατηγορουμένου. Με άλλα λόγια, δεν θα πρέπει να παρακινείται ο δράστης στην τέλεση του εγκλήματος μέσω του χρησιμοποιούμενου deepfake και θα πρέπει να τεθούν όροι και προϋποθέσεις εκ του Νόμου, καθώς, σε διαφορετική περίπτωση, θα υπάρχουν ζητήματα αδιαφάνειας σε σχέση με την κτήση των αποδεικτικών μέσων.

5. Η αυθεντικοποίηση των ψηφιακών μέσων
Ο βασικός προβληματισμός και η σχετική πρόκληση που ανακύπτει ως εκ τούτου, έγκειται στην αυθεντικότητα των αποδεικτικών μέσων, κυρίως των φωτογραφιών και των βίντεο. Πριν την ψηφιακή τεχνολογία, υπήρχε η δυνατότητα να εξεταστεί η αυθεντικότητα των φωτογραφιών μέσω της σύγκρισης της εμφανισθείσας φωτογραφίας με το αρνητικό μέρος του φιλμ της· αλλά και οι ψηφιακές εικόνες και τα πιο σύγχρονα προγράμματα επεξεργασίας και αλλοίωσης τους, όπως το πρόγραμμα
Σελ. 556 Photoshop, παρέχουν τη δυνατότητα να ελεγχθεί η επεξεργασία, που τυχόν έχουν υποστεί, μέσω των ιχνών που παραμένουν στις αρχικές πληροφορίες (pixel) της εικόνας.

Στην περίπτωση, όμως, της Τεχνητής Νοημοσύνης η κατάσταση δεν είναι τόσο απλή, ενώ συνεχίζει να εξελίσσεται με γεωμετρικούς ρυθμούς, καθιστώντας ιδιαίτερα δυσχερές για την τεχνολογία της αυθεντικοποίησης να ακολουθήσει τις εξελίξεις. Είναι, επομένως, εξαιρετικά πιθανόν οι σύγχρονες γνώσεις σχετικά με την επεξεργασία εικόνων να μην επαρκούν για να εξηγήσουν την προέλευση μιας δεδομένης εικόνας και τον τρόπο με τον οποίο έχει τύχει επεξεργασίας. Η επιστημονική και ακαδημαϊκή έρευνα, προς το παρόν και μέχρι σήμερα, επικεντρώνεται στη διαδικασία ελέγχου των διαφορετικών προσεγγίσεων που θα μπορούσαν να οδηγήσουν στον έλεγχο των εικόνων που παράγονται μέσω της ΤΝ, καθώς και ποιες από αυτές θα μπορούσαν να περιλαμβάνουν την αξιοποίηση της ίδιας της ΤΝ για τον σκοπό αυτόν. Σύμφωνα, λοιπόν, με τα έως τώρα επιστημονικά δεδομένα, δεν υπάρχουν ακόμα τεχνολογίες για την ανίχνευση οπτικών και ακουστικών deepfakes. Μάλιστα, ιδιαίτερα πενιχρή είναι η έρευνα στην παραγωγή ψευδών ηχητικών ντοκουμέντων/δεδομένων, καθώς προς το παρόν η προσοχή επικεντρώνεται κυρίως στα προγράμματα της παραγωγής ψευδών φωτογραφικών ντοκουμέντων/δεδομένων και για τον λόγο αυτό προτείνεται να υπάρξουν ιδιαίτερα αυστηρές κατευθυντήριες γραμμές σχετικά με τις διαδικασίες αποθήκευσης, τα εξουσιοδοτημένα άτομα και τις διαδικασίες ανάκτησης των ψηφιακών δεδομένων, με σκοπό να εξασφαλίζεται όσο το δυνατόν η αυθεντικότητα των δεδομένων.

6. Η συμβολή της Ευρωπαϊκής Ένωσης
Προς την κατεύθυνση αυτή, η Ευρωπαϊκή Ένωση παρατηρείται ότι έχει μία ιδιαίτερα ενεργή και πρωτοποριακή δράση κατά τη νομοπαρασκευαστική διαδικασία για τη διαμόρφωση ενός νομοθετικού πλαισίου σχετικά με την Τεχνητή Νοημοσύνη. Η Πρόταση της Επιτροπής για τον Κανονισμό της Ευρωπαϊκής Ένωσης για την Τεχνητή Νοημοσύνη [Artificial Ιntelligence (AI) Act], αποσκοπεί στην κατηγοριοποίηση των διαφορετικών τύπων της Τεχνητής Νοημοσύνης ανάλογα με τον κίνδυνο που αυτοί μπορεί να παρουσιάζουν. Πιο συγκεκριμένα, όταν ένα σύστημα ΤΝ παρουσιάζει κίνδυνο μόνο περιορισμένο, οι νομοθετικοί περιορισμοί θα είναι πιο ελαφροί σχετικά με τους κανόνες διαφάνειας, που θα απαιτούνται. Αντιθέτως, αν το σύστημα είναι υψηλής επικινδυνότητας, τότε οι νομοθετικές απαιτήσεις θα είναι υψηλότερες για να εισαχθεί στην Ευρωπαϊκή Ένωση. Από την άλλη, συστήματα που αφορούν στον γνωσιακό χειρισμό της συμπεριφοράς και στην κοινωνική βαθμολόγηση, στην προγνωστική αστυνόμευση με προφίλ και συστήματα βιομετρικών δεδομένων για την κατηγοριοποίηση των ατόμων σύμφωνα με συγκεκριμένες κατηγορίες, όπως η φυλή, η θρησκεία ή ο σεξουαλικός προσανατολισμός, απαγορεύονται πλήρως από την Ευρωπαϊκή Ένωση, καθώς ο κίνδυνος έχει κριθεί απολύτως απαράδεκτος.

Πιο συγκεκριμένα, στο άρθρο 52 παρ. 3 της Πρότασης του Κανονισμού για την Τεχνητή Νοημοσύνη με τίτλο «Υποχρεώσεις διαφάνειας για ορισμένα συστήματα ΤΝ» ορίζει ότι: «Οι χρήστες συστήματος ΤΝ που παράγει ή χειρίζεται περιεχόμενο εικόνας, ήχου ή βίντεο που έχει αισθητή ομοιότητα με υπαρκτά πρόσωπα, αντικείμενα, τόπους ή άλλες οντότητες ή γεγονότα και θα εκλαμβανόταν ψευδώς από κάποιο πρόσωπο ως γνήσιο ή αληθινό («βαθιά ψευδές υλικό»), γνωστοποιούν ότι το περιεχόμενο έχει παραχθεί τεχνητά ή υποστεί χειρισμό. Ωστόσο, το πρώτο εδάφιο δεν εφαρμόζεται όταν η χρήση επιτρέπεται από τον νόμο για την ανίχνευση, την πρόληψη, τη διερεύνηση και τη δίωξη ποινικών αδικημάτων ή είναι απαραίτητη για την άσκηση του δικαιώματος στην ελευθερία της έκφρασης και του δικαιώματος στην ελευθερία της τέχνης και της επιστήμης που κατοχυρώνονται στον Χάρτη των Θεμελιωδών Δικαιωμάτων της ΕΕ, και με την επιφύλαξη των κατάλληλων εγγυήσεων για τα δικαιώματα και τις ελευθερίες τρίτων.» Η Ευρωπαϊκή Ένωση, επομένως, με τρόπο ιδιαίτερα πρωτοποριακό - και ίσως για πρώτη φορά στο παγκόσμιο επίπεδο - ορίζει την έννοια των πλαστών φωτογραφιών που περιλαμβάνουν εναλλαγή προσώπου («βαθιά ψευδές υλικό»). Για τέτοιου είδους υλικό, θα υπάρχει υποχρέωση των δημιουργών του να γνωστοποιούν στο κοινό ότι αυτό έχει παραχθεί με την Τεχνολογία της ΤΝ. Περαιτέρω, όμως, η Ευρωπαϊκή Ένωση στο δεύτερο εδάφιο του ανωτέρω άρθρου, θέτει κάποιες εξαιρέσεις στον κανόνα αυτό, κυρίως στις περιπτώσεις που αφορούν στην ανίχνευση, στην πρόληψη, στη διερεύνηση και στη δίωξη ποινικών αδικημάτων. Επίσης, αναγνωρίζει το δικαίωμα στην ελευθερία της έκφρασης και το δικαίωμα στην ελευθερία της τέχνης και της επιστήμης, όπως αυτά θεσμοθετήθηκαν στον Χάρτη των Θεμελιωδών Δικαιωμάτων της ΕΕ, και προστατεύει συνάμα τυχόν δικαιώματα τρίτων.
7. Σύγχρονοι προβληματισμοί και πιθανές προτάσεις
Όπως θεωρώ ότι καταδεικνύει η ανωτέρω θεωρητική ανάλυση, η αποδεικτική διαδικασία στις ποινικές ή και στις πολιτικές δίκες, πρόκειται να αλλάξει θεαματικά στο άμεσο μέλλον και όσο (θα) εξελίσσεται η τεχνολογία της Τεχνητής Νοημοσύνης και των εφαρμογών παραγωγής ψευδών φωτογραφικών και ηχητικών ντοκουμέντων/δεδομένων. Αυτό που διαφοροποιεί τις μέχρι τώρα παραποιημένες εικόνες από αυτές που (θα) παράγονται μέσω των εφαρμογών της ΤΝ είναι ότι οι τελευταίες δεν είναι εύκολα διακριτές στο γυμνό μάτι, αλλά ούτε και στο έμπειρο και εξειδικευμένο μάτι ενός ειδικού. Για τον λόγο αυτό, φωτογραφίες ή βίντεο θα είναι ιδιαιτέρως δύσκολο τόσο να προσβληθούν για πλαστότητα από τον ενδιαφερόμενο διάδικο όσο και να γίνει αυτή φανερή στο Δικαστήριο για να ληφθεί υπόψη αυτεπαγγέλτως.
Επομένως, ο μέσος Δικαστής ή Συνήγορος δεν (θα) είναι, κατά πάσα πιθανότητα, σε θέση να διακρίνει την πλαστότητα των
Σελ. 557προσαχθέντων αποδεικτικών μέσων, δεδομένου ότι για να επιτευχθεί κάτι τέτοιο απαιτείται ειδική τεχνολογία, ενώ σε ορισμένες περιπτώσεις δεν επαρκεί ούτε αυτή. Βασικό πρόβλημα, συνεπώς, αποτελεί πώς θα προσβληθεί για πλαστότητα ένα λ.χ. φωτογραφικό αποδεικτικό μέσο, όταν αυτό είναι ιδιαιτέρως αληθοφανές και η αναγνώριση της ενδεχόμενης πλαστότητάς του είναι—ακόμα—ιδιαιτέρως δυσχερής. Επίσης, είναι σημαντικό να αναρωτηθεί κανείς πώς θα είναι σε θέση ο Δικαστής να κρίνει την πλαστότητα, ειδικά μάλιστα αν δεν υπάρχει κάποια άλλη πειστική ένδειξη που να την αποδεικνύει ή όταν η βασική απόδειξη για την ποινική δίωξη είναι η παραποιημένη φωτογραφία και δεν είναι εφικτό να προσβληθεί ή να διασταυρωθεί αυτή με άλλο αποδεικτικό μέσο.
Επίσης, η δυσκολία αυξάνεται ακόμα περισσότερο στην περίπτωση των παραποιημένων βίντεο και ήχων που παράγονται μέσω της Τεχνητής Νοημοσύνης. Αν οι φωτογραφίες αποτελούσαν μέχρι πρότινος μία σχετικά ασφαλή απόδειξη ενός γεγονότος, τα βίντεο επιβεβαίωναν με τον πιο σαφή τρόπο ότι αυτό πράγματι συνέβη. Η σύγχρονη τεχνολογία της ΤΝ, όμως, δίνει τη δυνατότητα να παράγονται βίντεο με οποιαδήποτε εικόνα ή ήχο επιθυμεί ο δημιουργός τους, παραποιώντας την πραγματικότητα. Ήδη υπάρχουν τέτοιου είδους παραγωγές βίντεο, τα οποία χρησιμοποιούνται για τη διάδοση ψευδών ειδήσεων ή για την - εκδικητική και όχι μόνο - πορνογραφία. Βάσιμα, λοιπόν, μπορεί να υποθέσει κανείς ότι τέτοιου είδους βίντεο θα εισαχθούν κάποια στιγμή και στην αποδεικτική διαδικασία. Ένα τέτοιο βίντεο, το οποίο μιμείται αποτελεσματικά την εικόνα και τη φωνή ενός ανθρώπου και μπορεί να παρουσιάζει ένα περιστατικό ως αληθινό, κατά πάσα πιθανότητα δεν μπορεί να διακριθεί δια γυμνού οφθαλμού για την πλαστότητά του από το μέσο Δικαστή ή το μέσο συνήγορο.
Αντίστοιχα, είναι πιθανόν να δημιουργηθούν ζητήματα σχετικά με την αστυνομική προανάκριση - διείσδυση, καθώς θα υπάρχει η δυνατότητα για χρήση ιδιαίτερα αληθοφανών «ψευδών εικόνων» (deepfakes) για την παγίδευση υπόπτων σοβαρών εγκλημάτων και η έννομη τάξη θα κληθεί να ρυθμίσει την αξιοποίησή τους, προκειμένου να εξασφαλίζεται το δικαίωμα στη δίκαιη δίκη και την προσωπική ζωή των υπόπτων. Οι ψευδείς εικόνες, που θα παράγονται με την τεχνητή νοημοσύνη και θα αξιοποιούνται σε περιπτώσεις αστυνομικής διείσδυσης, όμως, εξακολουθούν να δημιουργούν ζητήματα νομιμότητας και θα πρέπει να ρυθμιστούν αποτελεσματικά από την έννομη τάξη. Η νομιμότητα της χρήσης αυτών των ψευδών ηλεκτρονικών αποδεικτικών μέσων θα μπορούσε να εξασφαλιστεί μέσω της αδειοδότησης και της επίβλεψης από ένα αρμόδιο δικαιοδοτικό όργανο και μόνο σε περίτπωση που υπάρχουν αντικειμενικές υποψίες για την τέλεση του εγκλήματος και οι Αρχές δεν επεμβαίνουν ενεργητικά στη διαδικασία, ως προβοκάτορες.

Στο σημείο αυτό θα ήταν χρήσιμο να αναφερθεί και η άλλη όψη του νομίσματος, η οποία είναι αυτή της τυχόν παρελκυστικής και καταχρηστικής επίκλησης της πλαστότητας των αποδεικτικών μέσων και, κατά συνέπεια, η παρακώλυση της απονομής της δικαιοσύνης σε εύλογο χρόνο. Δεδομένου ότι δεν υπάρχει, ακόμα, ασφαλής τρόπος απόδειξης της πλαστότητας ή μη των αποδεικτικών μέσων είναι σημαντικό να ληφθεί υπόψη ότι είναι πιθανόν να προσβάλλονται ως πλαστά στοιχεία, τα οποία δεν έχουν παραχθεί μέσω Τεχνητής Νοημοσύνης, με σκοπό να καθυστερείται η ποινική διαδικασία.
Λόγω αυτών των τεχνολογικών εξελίξεων, οι μηχανικές απεικονίσεις των εικόνων και των βίντεο επιβάλλεται πλέον να αξιολογούνται με ιδιαίτερη προσοχή κατά την αποδεικτική διαδικασία και να συνδυάζονται με άλλα αποδεικτικά μέσα. Παράλληλα, είναι απαραίτητο να αυθεντικοποιούνται τα συγκεκριμένα αποδεικτικά μέσα πριν εισαχθούν στην ποινική διαδικασία, αν και τα διαθέσιμα τεχνολογικά μέσα δεν έχουν καταφέρει ακόμα να δημιουργήσουν ένα σύστημα που θα είναι σε θέση να εντοπίζει με ακρίβεια τις πλαστές εικόνες και τα βίντεο. Επίσης, είναι σημαντικό να αναφερθεί ότι στην περίπτωση των μέσων που παράγονται με αυτόν τον τρόπο είναι δύσκολο να διακριθεί το αυθεντικό από το πλαστό, καθώς δεν είναι δυνατόν να ανιχνευτεί κάτι ως πλαστό, όταν ουσιαστικά το πρωτότυπο είναι εξ υπαρχής πλαστό, σε αντίθεση με τα μέχρι τώρα δεδομένα.

Σε κάθε περίπτωση, οι οικείες διατάξεις της δικονομίας θέτουν κανόνες που δεν είναι σχεδιασμένοι για την τρέχουσα και μελλοντική τεχνολογική εξέλιξη, καθώς η θέσπιση νόμων συνήθως έπεται μίας ήδη διαμορφωμένης πραγματικής κατάστασης και αρχικά καλύπτει το ρυθμιστέο φαινόμενο κατά τρόπο γενικό. Είναι, άλλωστε, χαρακτηριστικό ότι οι κανόνες απόδειξης του ελληνικού δικαίου δεν έχουν λάβει υπόψη τις συγκεκριμένες τεχνολογικές εξελίξεις και δεν έχουν αναπροσαρμοστεί για να προλάβουν την αλματώδη τεχνολογική πρόοδο· χρειάζονται χρόνια για να τροποποιηθεί ένας κανόνας δικαίου, αφού η τεχνολογία, την οποία καλείται να προλάβει και να ρυθμίσει, έχει ενσωματωθεί ήδη στην κοινωνική πραγματικότητα. Για παράδειγμα, στην Ελλάδα οι οικείες διατάξεις για τα μηχανικά μέσα προβλέπουν ότι μπορεί να προβληθεί η πλαστότητα από τους διαδίκους ή να εξετάζεται από το Δικαστήριο. Στην περίπτωση της ΤΝ, όμως, η απόδειξη της πλαστότητας δεν είναι εφικτή, προς το παρόν, ούτε από τους ειδικούς. Έτσι, οι διατάξεις αυτές αναδεικνύονται αναχρονιστικές και εν δυνάμει επικίνδυνες για το δικαιικό μας σύστημα, ενώ πιθανότατα θα αργήσουν να τεθούν νεότερες και για το λόγο αυτό τα Δικαστήρια και οι αρχές δεν (θα) είναι σε θέση να αφομοιώσουν τις τεχνολογικές εξελίξεις.
Επίσης, είναι σημαντικό να αναφερθεί ότι η ΤΝ αποτελεί στην πραγματικότητα ένα σύνολο μαθηματικών μοντέλων, τα οποία είναι δύσκολο να περιοριστούν. Ακόμα και η προτεινόμενη λύση του να προστίθεται ένα υδατογράφημα («Watermark») σε μέσα που έχουν παραχθεί μέσω της Τεχνητής Νοημοσύνης δεν μοιάζει ρεαλιστική. Βασικός λόγος είναι γιατί μία τέτοια δέσμευση ίσως να εφαρμοζόταν από μεγάλες εταιρείες, αλλά δεν θα δέσμευε τους απλούς πολίτες, κυρίως γιατί τα προγράμματα ΤΝ είναι προγράμματα ανοιχτού κώδικα ή μοντέλα προσβάσιμα στο ευρύ κοινό και άρα ο κάθε χρήστης μπορεί να τα χρησιμοποιήσει στον δικό του υπολογιστή, προσπερνώντας ανάλογους περιορισμούς .

Σελ. 558Επίλογος
H Τεχνητή Νοημοσύνη προσφέρει πλέον μία πληθώρα νέων δυνατοτήτων, ενώ παράλληλα, θεωρείται ότι στο μέλλον οι εξελίξεις στον τομέα αυτό θα είναι ραγδαίες. Βασική αρχή της Τεχνητής Νοημοσύνης είναι ότι ο αλγόριθμος έχει τη δυνατότητα να μαθαίνει και να εξελίσσεται με τον ίδιο τρόπο που μαθαίνει και ο άνθρωπος. Επειδή ακριβώς υπάρχει αυτή η δυνατότητα, η Τεχνητή Νοημοσύνη καθιστά ιδιαιτέρως πειστικές τις πλαστές εικόνες που παράγονται.
Για τον λόγο αυτό είναι ιδιαίτερα σημαντικό να υπάρχει συνεχής ετοιμότητα από την πλευρά των δικαστικών αρχών και των συνηγόρων και να διατηρείται μία κριτική ματιά απέναντι στα μέσα αυτά, μέχρι η τεχνολογία να είναι σε θέση να διακρίνει με σαφήνεια την γνησιότητά τους. Πρόκειται, επομένως, για μία από αυτές τις καμπές στη νομοθετική διαδικασία, κατά την οποία ο νομοθέτης καλείται να (παρ)ακολουθήσει τις τεχνολογικές εξελίξεις, γεγονός ιδιαίτερα δύσκολο. Άλλωστε, η Τεχνητή Νοημοσύνη, ήδη, δυσκολεύει ιδιαίτερα και τους ίδιους τους τεχνικούς της ψηφιακής εγκληματολογίας, οι οποίοι δεν είναι σε θέση ακόμα να διαμορφώσουν τα μέσα για να επιβεβαιώνουν τη γνησιότητα των σύγχρονων φωτογραφιών και βίντεο, καθιστώντας αναγκαία, προς το παρόν, την αποκλειστική ετοιμότητα του Δικαστή κατά την εκτίμηση των αποδεικτικών μέσων.
References
• Allen G., Understanding AI Technology. Joint Artificial Intelligence Center (JAIC) The Pentagon United States 2020, pp. 24-32.
• Alikakos P., The use of deepfakes during (pre-) interrogation and their compatibility with the case law of the ECtHR, in Issues of evidence in criminal proceedings, in Law Library 2024, pp. 277-278.
• Council of the EU, Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI, 2024. Retrieved 8.7.2024 from https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/pdf/
• European Commission, Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, The digitalisation of justice in the European Union: A toolbox of opportunities, 2020.
• European Commission, Proposal for a Regulation of the European Parliament and of the Council on harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union acts, 2021.
• European Parliament, What is artificial intelligence and how is it used?, 2021.
• Explanatory report of Law 3994/2011 (Government Gazette 165/Α΄/25.07.2011).
• Ferreira S. / Antunes M. / Correia M. E., Exposing manipulated photos and videos in digital forensics analysis. Journal of Imaging 2021, p. 102.
• Hong W./ Ding M./ Zheng W./ Liu X./ Tang J., Cogvideo: Large-scale pretraining for text-to-video generation via transformers 2022, pp. 1-15.
• Karras A., Criminal Procedure Law, 2020.
• Krawetz N. / Solutions H. F., A picture’s worth. Hacker Factor Solutions 2007, p. 2.
• Maras M. H. / Alexandrou A., Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof 2019, pp. 255-262.
• Masood M./ Nawaz M. / Malik K. M./ Javed A. / Irtaza A. / Malik H., Deepfakes generation and detection: State-of-the-art, open challenges, countermeasures, and way forward. Applied intelligence 2023, pp. 3974-4026.
• Mirsky Y. / Lee W., The creation and detection of deepfakes: A survey. ACM computing surveys (CSUR) 2021, pp. 1-41.
• Mitrou L. (ed.), Can the algorithm…, 2023, pp. 17-19, and G. Allen, Understanding AI Technology. Joint Artificial Intelligence Center (JAIC) The Pentagon United States, 2 (1), 2020.
• Nikas N., Handbook of Civil Procedure, 2018.
• Nikolopoulos G., Law of Evidence, 2011.
• OECD, Artificial Intelligence in Society, OECD Publishing Paris, 2019. Retrieved 8 July 2024 https://read.oecd-ilibrary.org/science-and-technology/artificial-intelligence-in-society/summary/english_9f3159b8-en#page1
• Papadamakis A., Interrogatory penetration: limits and excesses, in Criminal Justice 2010, pp. 1325-1327.
• Russell S.J. / Norvig P, Artificial Intelligence. A Modern Approach, 3rd ed. Prentice Hall, Pearson Education Inc, 2010.
• Venema A. E. / Geradts Z. J., Digital forensics, deepfakes, and the legal process. The SciTech Lawyer 2020, pp. 14-23.
• Verdoliva L., Media forensics and deepfakes: an overview. IEEE Journal of Selected Topics in Signal Processing 2020, pp. 910-932.
• Xu M./ Li H./ Su Q./ Shang H./ Zhang L./ Liu C., .../ Zhu S., Hallo: Hierarchical Audio-Driven Visual Synthesis for Portrait Image Animation 2024, pp. 1-20.
anchor link
Εγγραφήκατε επιτυχώς στο newsletter!
Η εγγραφή στο newsletter απέτυχε. Παρακαλώ δοκιμάστε αργότερα.
Αρθρογραφία, Νομολογία ή Σχόλια | Άμεση ανάρτηση | Επώνυμη ή ανώνυμη | Προβολή σε χιλιάδες χρήστες σε όλη την Ελλάδα