Κείμενο

Η παρούσα μελέτη αποτελεί επεξεργασμένη εκδοχή της συμβολής μου υπό τον τίτλο «ChatGPT: Αποκήρυξη της νέας τεχνολογίας ή καλλιέργεια ηθικής χρήσεώς της;», Syntagma Watch, 7.3.2023, διαθέσιμη σε: https://www.syntagmawatch.gr/trending-issues/chatgpt-apokhryjh-ths-neas-texnologias-h-kalliergeia-hthikis-xrhsews-ths/. Θερμές ευχαριστίες εκφράζονται στον Γεώργιο Γιαννόπουλο, Αναπληρωτή Καθηγητή Νομικής Σχολής Ε.Κ.Π.Α., για τον πολύ εποικοδομητικό διάλογο μαζί του.
Ι. Εισαγωγή
Ένα νέο τεχνολογικό εργαλείο υπό τον μανδύα μιας εφαρμογής συντάξεως σύνθετων επιστημονικών απαντήσεων με τη συνδρομή της τεχνητής νοημοσύνης είναι πλέον στη διάθεσή μας. Ευλογία για τους εκπαιδευόμενους και κατάρα για τους εκπαιδευτές; Τα πράγματα στη ζωή μας δεν είναι ποτέ μαύρα ή άσπρα αλλά μια απόχρωση του γκρι. Χρειάζεται προσοχή και περίσκεψη προτού προβούμε σε όποιους αφορισμούς. Σε κάθε περίπτωση παρατηρείται μια αλλαγή των κανόνων του παιχνιδιού. Η παρούσα συμβολή αποσκοπεί στο να συζητήσει τα εγειρόμενα νομικά και δεοντολογικά ζητήματα και να προτείνει τρόπους χρήσεως της νέας τεχνολογίας στην επιστημονική κοινότητα.
Σελ. 7ΙΙ. Διασάφηση ορολογίας
Η τεχνολογία Generative pre-trained transformer (GPT) ανήκει στην οικογένεια μεγάλων γλωσσικών μοντέλων, που χρησιμοποιούνται, μεταξύ άλλων, για τη σύνθεση-παραγωγή κειμένου μέσω της διαδοχικής προβλέψεως λέξεων από κάποιες άλλες λέξεις, χωρίς όμως να δίδει διευκρινίσεις για τα σύνολα δεδομένων που δημιουργεί. Η συγκεκριμένη τεχνολογία δεν είναι νεοφυής, υφίσταται εδώ και κάποια χρόνια, τίθεται όμως για πρώτη φορά στη διάθεση του ευρέος κοινού και μάλιστα δωρεάν. Το ChatGPT αποτελεί, κατ’ ουσίαν, ένα εργαλείο σύνθετης αναζητήσεως και επικοινωνίας (chatbot), στο οποίο ο χρήστης θέτει κάποιο ερώτημα και εκείνο συντάσσει την απάντηση στηριζόμενο σ’ ένα πλήθος διαθέσιμων και διαρκώς εμπλουτιζόμενων δεδομένων. Παρέχει εκτενείς και εξατομικευμένες απαντήσεις, αποθηκεύει το ιστορικό της συνομιλίας και δίνει στον χρήστη την ψευδαίσθηση της αλληλεπιδράσεως με φυσικό πρόσωπο. Σύμφωνα με τον ορισμό που δίνει το ίδιο το λογισμικό σε σχετική ερώτηση, το ChatGPT είναι ένα πρόγραμμα τεχνητής νοημοσύνης που μπορεί να συνομιλήσει με ανθρώπους και να απαντήσει σε ερωτήσεις. Μέχρι τώρα οι απαντήσεις δίδονται χωρίς παραπομπές στις πηγές. Θα μπορούσε να παρομοιασθεί με έναν φοιτητή που έχει διαβάσει την ύλη, αλλά στερείται κριτικής ικανότητας.
ΙΙΙ. Τα ανακύπτοντα νομικά ζητήματα
Το νέο εργαλείο τεχνητής νοημοσύνης εγείρει αρκετά νομικά ζητήματα. Τα κυριότερα από αυτά συνοψίζονται στα εξής:
1. Ζητήματα λογοκλοπής
Εν προκειμένω, ο υπογράφων το κείμενο φέρεται να έχει γράψει κάτι που δεν είναι προϊόν δικής του πνευματικής ιδιοκτησίας, αλλά τρίτου όχι πλέον φυσικού προσώπου, αλλά ψηφιακής τεχνολογίας. Λαμβάνει χώρα μια μορφή εξαπατήσεως, αν και τα όρια ανάμεσα στη συνθετική εργασία και την έρευνα των πηγών από τους μηχανισμούς αναζητήσεως είναι διάτρητα. Η υποβολή μιας εργασίας υπό αυτές τις συνθήκες αντιβαίνει τους κανόνες ακαδημαϊκής δεοντολογίας. Επισημαίνεται ότι, σύμφωνα με το άρθρο 197 παρ. 2 στοιχ. β΄ του Ν 4957/2022, συνιστά πειθαρχικό παράπτωμα «η λογοκλοπή ή η αποσιώπηση της άμεσης ή έμμεσης συνεισφοράς άλλων προσώπων στο αντικείμενο επιστημονικής ενασχόλησης ή έρευνας». Σημειώνεται, πάντως, ότι η εν λόγω λογοκλοπή δύναται πλέον να ελέγχεται ηλεκτρονικά και με μεθόδους τεχνητής νοημοσύνης, π.χ. μέσω της εφαρμογής Tunrnitin, ενώ άλλα λογισμικά είναι σε θέση να εξαπατούν το Turnitin. Μήπως έχουμε να κάνουμε με την τέχνη της εξαπατήσεως εν γένει; Είναι γεγονός ότι οι μέθοδοι αντιγραφής εξαντλούν τη φαντασία των εξεταζομένων που μετέρχονται όλων των πιθανών μέσων από τα σκονάκια, την ανάθεση εργασιών σε εξωτερικά γραφεία έως και τη χρήση τεχνικών μέσων, όπως κινητών τηλεφώνων και του υπό εξέταση λογισμικού. Και αν θέλουμε να προχωρήσουμε λίγο παραπέρα, όλος ο πολιτισμός μας είναι μια αντιγραφή, ζητούμενο είναι να αποτελεί καλή αντιγραφή…
2. Ζητήματα πνευματικής ιδιοκτησίας
Ερώτημα ανακύπτει αναφορικά με το ποιος λογίζεται ως δημιουργός του τελικού έργου. Οι δυνατές απαντήσεις θα μπορούσαν να συνοψισθούν στις εξής: α) Το δημιούργημα ανήκει στον δημιουργό της τεχνητής νοημοσύνης. Στη θέση αυτή αντιτάσσεται ότι η εφαρμογή των ιδεών ενός έργου δεν συνιστά παράγωγο έργο, καθώς οι ιδέες δεν υπόκεινται στο πεδίο προστασίας της πνευματικής ιδιοκτησίας, σύμφωνα με το άρθρο 2 του Ν 2121/1993.
β) Το δημιούργημα ανήκει στον δημιουργό της τεχνητής νοημοσύνης ως διανοητική, αλλά όχι ως πνευματική ιδιοκτησία, π.χ. ως εφεύρεση. Υπ’ αυτή την έννοια, θα μπορούσε η πνευματική δημιουργία να ανήκει στον χρήστη της δημιουργικής τεχνητής νοημοσύνης και όχι στον δημιουργό της. Δεδομένου ότι η εργασία αρκεί ως κριτήριο για την απόκτηση πνευματικής δημιουργίας, βάσει του άρθρου 1 παρ. 3 της Οδηγίας 91/250 και του άρθρου 6 της Οδηγίας 2006/116, τα δευτερο
Σελ. 8 γενή επιτεύγματα θα ανήκουν στον χρήστη του αρχικού λογισμικού, καθόσον αυτός έθεσε σε λειτουργία τη συσκευή για να παραχθούν. γ) Το δημιούργημα αποτελεί συνδημιούργημα του δημιουργού και του χρήστη της δημιουργικής τεχνητής νοημοσύνης. H λύση αυτή συνυπολογίζει το γεγονός ότι το τελικό συνδημιούργημα είναι και των δύο. δ) Το δημιούργημα καθίσταται ελεύθερο αγαθό ανήκον πλέον στην κοινή χρήση (public domain), δεδομένου ότι οι μηχανές δεν μπορούν να δημιουργήσουν πνευματικά έργα. Στην περίπτωση αυτή έχουμε να κάνουμε με την λεγόμενη μηδενική λύση. Yπ’ αυτή την έννοια, το δευτερογενές δημιούργημα δεν είναι κατασκεύασμα φυσικού προσώπου και, ως εκ τούτου, δεν είναι έργο, αλλά ελεύθερο αγαθό που ανήκει στο κοινό. Σημειώνεται, ωστόσο, ότι την κυριότητα του προϊόντος της τεχνητής νοημοσύνης θα αποκτήσει ο κύριός του, δυνάμει ειδοποιϊας ή καρποκτησίας. Η λύση αυτή εδράζεται στο επιχείρημα ότι δεν έχουμε ανθρώπινο δημιούργημα, αισθητό και πρωτότυπο. Η θέση αυτή βαρύνεται με το μειονέκτημα ότι δεν κινητροδοτείται ο κατασκευαστής της τεχνητής νοημοσύνης. Περαιτέρω, υποστηρίζεται ότι η ελεύθερη διάθεση απάδει με τη σύμβαση της Βέρνης, από την οποία απορρέει το δίκαιο της πνευματικής ιδιοκτησίας και καθιερώνει την αρχή του δημιουργού.
ε) Το δημιούργημα είναι πνευματικό έργο του δημιουργικού λογισμικού, δηλαδή η τεχνητή νοημοσύνη γίνεται δημιουργός από τη θέση του δημιουργήματος. Με τον τρόπο αυτό αναγνωρίζεται αναλογικά ή νομοθετικά νομική προσωπικότητα στη συσκευή της τεχνητής νοημοσύνης. Στην κατεύθυνση της δημιουργίας μακροπρόθεσμα ενός ειδικού νομικού καθεστώτος για τα ρομπότ κινείται το Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 16ης Φεβρουαρίου 2017, το οποίο απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο. Στόχος είναι τα πιο εξελιγμένα, αυτόνομα ρομπότ να εκλαμβάνονται ως ηλεκτρονικά πρόσωπα με υποχρέωση επανορθώσεως τυχόν προκληθείσας ζημίας. Περαιτέρω στόχος είναι η εφαρμογή της ηλεκτρονικής προσωπικότητας σε περιπτώσεις στις οποίες τα ρομπότ λαμβάνουν αυτόνομα αποφάσεις ή έρχονται με άλλον τρόπο σε ανεξάρτητη αλληλεπίδραση με άλλα πρόσωπα. Η θέση αυτή ενέχει τον κίνδυνο του περιορισμού της ευθύνης για τυχόν ζημίες προς όφελος των κατασκευαστών των μηχανημάτων. Aυτή η θέση δεν έχει τύχει νομολογιακής επιδοκιμασίας από την ευρωπαϊκή έννομη τάξη. Στην απόφαση England and Wales του Εφετείου της Αγγλίας και της Ουαλίας το δικαστήριο έκρινε ότι μια μηχανή δεν μπορεί να είναι εφευρέτης υπό την έννοια του νόμου, διότι η μηχανή δεν είναι φυσικό πρόσωπο. Αντιθέτως, στην Κίνα αναγνωρίστηκε πνευματική ιδιοκτησία στο έργο ρομπότ. στ) Δεδομένης της αδυναμίας των ανωτέρω λύσεων, προτείνεται υπό την οπτική του αστικού δικαίου η λύση του αδικαιολογήτου πλουτισμού, δυνάμει των διατάξεων 904 επ. Α.Κ.. Εν προκειμένω η κυριότητα αποκτάται ως αδικαιολόγητος πλουτισμός από νόμιμη αιτία (δυνάμει συμβάσεως) ή και χωρίς νόμιμη αιτία.
Καμία από τις ανωτέρω θέσεις δεν κατέχει τα σκήπτρα της απόλυτης ορθότητας και η απάντηση στο ερώτημα περί πνευματικής ιδιοκτησίας πρέπει να δοθεί με βάση τα εκάστοτε πραγματικά περιστατικά. Πιστεύεται, πάντως, ότι ένεκα της τεχνητής νοημοσύνης θα απαιτηθεί να μετασχηματίσει ο νόμος
Σελ. 9 περί πνευματικής ιδιοκτησίας, ο οποίος ενδεχομένως θα αποδώσει δικαιώματα σε δημιουργούς – μη ανθρώπους.
3. Ζητήματα νομικής ευθύνης
Σε περίπτωση που γίνει αποδεκτό το συντεθέν κείμενο, προκύπτει εύλογα το ερώτημα περί ευθύνης. Ποιος θα ευθύνεται αν το δημιούργημα εμπεριέχει ψευδή γεγονότα; Το ερώτημα αυτό δεν επιδέχεται αυτονόητη απάντηση.
Η πρώτη θέση έγκειται στο ότι την ευθύνη οφείλει να επωμιστεί, αλλά και να διαχειριστεί ο κατασκευαστής προϊόντων τεχνητής νοημοσύνης. Αυτό θα μπορούσε να γίνει μέσω της θεσπίσεως ενός μαχητού τεκμηρίου ότι εν αμφιβολία ευθύνεται ο κατασκευαστής. Με τον τρόπο αυτό θα ενισχυθεί η υπευθυνότητα, αλλά και η προνοητικότητα του κατασκευαστή. Στην κατεύθυνση αυτή σκόπιμη κρίνεται η υποχρέωση της μελέτης εκτιμήσεως αντικτύπου πριν από την ενεργοποίηση οποιαδήποτε εφαρμογής τεχνητής νοημοσύνης. Το μοντέλο αυτό ευθύνης φαίνεται να υιοθετεί εν πολλοίς το Σχέδιο Κανονισμού Τεχνητής Νοημοσύνης που αποδίδει μεγάλη ευθύνη στον σχεδιαστή του λογισμικού και τονίζει τη σημασία της προλήψεως κατά τον σχεδιασμό. Περαιτέρω, οι εταιρείες τεχνητής νοημοσύνης έχουν την υποχρέωση να ασκούν αυστηρό έλεγχο μετά από την πώληση των προϊόντων της και να διεξάγουν συνεχιζόμενες αναβαθμίσεις που θα αποτρέπουν τις απρόβλεπτες επιπτώσεις. Ως εκ τούτου, οι εταιρείες τεχνητής νοημοσύνης οφείλουν να επινοήσουν τρόπους αποτροπής από την κακή χρήση των προϊόντων τους, προκειμένου να προστατέψουν και τις ίδιες, αλλά και να μην στερήσουν από την κοινωνία τα μεγάλα οφέλη που θα της προσφέρει. Πρέπει να λάβουν τα κατάλληλα μέτρα για την ελαχιστοποίηση των κινδύνων που ανακύπτουν και αν το πράξουν θα μειώσουν την πιθανή ευθύνη τους και θα εξασφαλίσουν ότι τα προϊόντα τους είναι κατάλληλα για την κοινωνία στην οποία ζούμε. Κανείς δεν θα πρέπει να αναπτύσσει συστήματα τεχνητής νοημοσύνης, χωρίς να έχει το αίσθημα της ευθύνης για αυτά, ακόμα και αν πρόκειται για συστήματα αυτόνομης μηχανικής μαθήσεως, δεδομένου ότι η ευθύνη μπορεί πλέον να εισαχθεί και ως πληροφορία. Η αυστηρή ευθύνη του δημιουργού θα πρέπει να διαδραματίσει βασικό ρόλο στην αποζημίωση των βλαβών που προκαλούνται από ελαττωματικά προϊόντα και τα συστατικά τους, ανεξάρτητα από το αν λαμβάνουν απτή ή ψηφιακή μορφή. Η δεύτερη θέση έγκειται στο ότι η ευθύνη πρέπει να αποδοθεί στον χειριστή της τεχνολογίας που περιλαμβάνει η νοημοσύνη, δηλαδή στον ερευνητή που εφαρμόζει την τεχνολογία.
Με τον τρόπο αυτό, όμως, δεν επιλύονται όλα τα ζητήματα που θέτει η τεχνητή νοημοσύνη. Δεν παύει, όμως, να είναι μια έντιμη εκ πρώτης όψεως λύση όσον αφορά στον ερευνητή που αναζητεί πρόταση για το πρόβλημα που τίθεται. Ο χειριστής του σχετικού προγράμματος οφείλει, να μην ενστερνιστεί δίχως άλλο την πρόταση, αλλά να ελέγξει αν η πρόταση είναι απολύτως προσαρμοσμένη στα εκάστοτε πραγματικά περιστατικά της εξεταζόμενης υποθέσεως και να θεωρεί ως πιθανό σενάριο την προκατάληψη του αλγορίθμου. Σε αυτή την κατεύθυνση ίσως θα μπορούσαμε να υιοθετήσουμε ένα μαχητό τεκμήριο ότι εν αμφιβολία η ανθρώπινη κρίση υπερισχύει της αποφάσεως του αλγορίθμου. Βεβαίως, δεν θα πρέπει να παραγνωρίζεται ο κίνδυνος να παρασυρθεί ο χρήστης από την πρόταση και να οδηγηθεί σε λάθος συλλογισμό στο τελικό του κείμενο.
Η τρίτη θέση έγκειται σε έναν επιμερισμό της ευθύνης μεταξύ του κατασκευαστή ή προγραμματιστή και του χειριστή. Ο καθένας θα ευθύνεται για το μερίδιο της ευθύνης που του αναλογεί. Ο κατασκευαστής για την κατασκευαστική ατέλεια και ο χειριστής για την αστοχία κατά τον χειρισμό ή για την μη επιμέτρηση των πραγματικών περιστατικών στην εξεταζόμενη υπόθεση.
Το σύστημα αυτό της ευθύνης, καίτοι φαίνεται δελεαστικό και τείνει να είναι το επικρατέστερο, δεν είναι άμοιρο προβληματισμού και αμφισβητήσεων. Η απόδοση της ευθύνης μπορεί να καταστεί σε πολλές περιπτώσεις ένα δυσεπίλυτο και δυσαπόδεικτο ζήτημα. Εάν υπάρχουν δύο ή περισσότεροι φορείς, ιδίως (α) το πρόσωπο που αποφασίζει πρωτίστως για τη χρήση της σχετικής τεχνολογίας και επωφελείται από αυτήν (frontend operator) και (β) το πρόσωπο που καθορίζει συνεχώς τα χαρακτηριστικά της σχετικής τεχνολογίας και παρέχει ουσιαστική και συνεχή υποστήριξη στο backend (backend operator), η
Σελ. 10 αντικειμενική ευθύνη θα πρέπει να βαρύνει εκείνον που έχει μεγαλύτερο έλεγχο των κινδύνων της λειτουργίας. Η τέταρτη θέση έγκειται στην απόδοση ευθύνης στην ίδια την τεχνολογία. Αν, όμως, η τεχνολογία θεωρηθεί υπεύθυνη, θα πρέπει προηγουμένως να της έχει αποδοθεί νομική προσωπικότητα. Το 2015 το Ευρωπαϊκό Κοινοβούλιο υιοθέτησε ψήφισμα με το οποίο καλούσε την Επιτροπή να εξετάσει το ενδεχόμενο δημιουργίας ενός ειδικού νομικού καθεστώτος για τα ρομπότ μακροπρόθεσμα, έτσι ώστε τουλάχιστον τα πιο εξελιγμένα αυτόνομα ρομπότ να έχουν το καθεστώς των ηλεκτρονικών προσώπων που είναι υπεύθυνα για την αποκατάσταση κάθε ζημίας που μπορεί να προκαλέσουν, και ίσως την αναγνώριση της ηλεκτρονικής προσωπικότητας σε περιπτώσεις που τα ρομπότ λαμβάνουν αυτόνομες αποφάσεις ή άλλως αλληλεπιδρούν με τρίτους ανεξάρτητα. Η λύση αυτή απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο, το οποίο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης, α) το Ψήφισμα 2020/2012(INL) σχετικά με ένα πλαίσιο ηθικών πτυχών της Τεχνητής Νοημοσύνης, της Ρομποτικής και των συναφών τεχνολογιών, β) το Ψήφισμα 2020/2014(INL) σχετικά με ένα καθεστώς αστικής ευθύνης για την Τεχνητή Νοημοσύνη και γ) το Ψήφισμα 2020/2015(INI) σχετικά με τα δικαιώματα πνευματικής ιδιοκτησίας για την ανάπτυξη τεχνολογιών Τεχνητής Νοημοσύνης. Και τα τρία ψηφίσματα αναγνωρίζουν ότι η τεχνητή νοημοσύνη θα επιφέρει σημαντικά οφέλη σε διάφορους τομείς (επιχειρήσεις, αγορά εργασίας, δημόσιες μεταφορές, τομέας υγείας). Ωστόσο, όπως επισημαίνεται στο ψήφισμα για τις ηθικές πτυχές της τεχνητής νοημοσύνης, υφίστανται ανησυχίες ότι το ισχύον νομικό πλαίσιο της Ενώσεως, συμπεριλαμβανομένου του δικαίου των καταναλωτών και του εργατικού και κοινωνικού κεκτημένου, της νομοθεσίας για την προστασία των δεδομένων, της νομοθεσίας για την ασφάλεια των προϊόντων και την εποπτεία της αγοράς, καθώς και της νομοθεσίας κατά των διακρίσεων, ενδέχεται να μην είναι πλέον κατάλληλο για την αποτελεσματική αντιμετώπιση των κινδύνων που δημιουργούνται από την τεχνητή νοημοσύνη, τη ρομποτική και τις συναφείς τεχνολογίες. Και τα τρία ψηφίσματα είναι ανυποχώρητα ως προς την μη παροχή νομικής προσωπικότητας στα συστήματα λογισμικού τεχνητής νοημοσύνης. Επομένως, αυτή η λύση, καίτοι δελεαστική, φαίνεται να μην αφορά το αμέσως προσεχές μέλλον, χωρίς, όμως, να αποκλείεται για λίγο αργότερα, όταν ωριμάσει η ιδέα της ψηφιακής προσωπικότητας.
Στη σωστή κατεύθυνση κινείται, πάντως, η Πρόταση Οδηγίας για την ευθύνη της τεχνητής νοημοσύνης, που θα δημιουργήσει ένα μαχητό «τεκμήριο αιτιώδους συνάφειας», για να διευκολύνει το βάρος της αποδείξεως για τα θύματα που πρέπει να αποδείξουν τη ζημία που προκλήθηκε από ένα σύστημα τεχνητής νοημοσύνης. Επιπλέον, δίνει στα εθνικά δικαστήρια την εξουσία να διατάσσουν την αποκάλυψη αποδεικτικών στοιχείων σχετικά με συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου για τα οποία υπάρχουν υποψίες ότι προκάλεσαν ζημία.
4. Ζητήματα ελευθερίας εκφράσεως
Εγείρεται το ζήτημα αν το λογισμικό προστατεύεται από την ελευθερία εκφράσεως. Συγκεκριμένα, έχει το μηχάνημα τη διακριτική ευχέρεια να χαρακτηρίσει κάποιαν ως διάσημη ή άσημη καθηγήτρια ή ως σημαντικό διανοητή; Εάν ως απλοί πολίτες υποβάλλουμε ερωτήσεις σε έναν δημοσιογράφο και αυτός μας τις απαντήσει, είναι αδιαμφισβήτητο ότι ο δημοσιογράφος καλύπτεται από την συνταγματικώς κατοχυρωμένη ελευθερία του λόγου. Όταν υποβάλλουμε ερώτημα στο λογισμικό, ομοίως, αυτό πρέπει να αποφασίσει, εκείνη τη στιγμή, ποιες «απαντήσεις» πρέπει να δώσει και με ποια σειρά. Εάν οι απαντήσεις αυτές θεωρηθούν έκφραση του λογισμικού, τότε οποιαδήποτε κρατική προσπάθεια να ρυθμίσει την τεχνολογία,
Σελ. 11 θα πρέπει να εκληφθεί ως λογοκρισία. Στο μέτρο που ο προγραμματιστής του λογισμικού εντάσσει την άποψή του και επιχειρεί να επηρεάσει το κοινό, θεωρείται ότι έχει εδώ εφαρμογή η ελευθερία του λόγου. Έντονες ανησυχίες ανακύπτουν για την παραπληροφόρηση των πολιτών μέσω της επαναδιαδόσεως ψευδών ειδήσεων.
5. Ζητήματα προστασίας προσωπικών δεδομένων
Η χρήση μεγάλων γλωσσικών μοντέλων στην εκπαίδευση εγείρει ανησυχίες σχετικά με το απόρρητο και την ασφάλεια των δεδομένων, καθώς τα δεδομένα των εκπαιδευομένων είναι συχνά ευαίσθητα (ειδικές κατηγορίες). Η αλόγιστη συλλογή, καθώς και επεξεργασία των προσωπικών μας δεδομένων που απορρέει από τη λειτουργία της τεχνητής νοημοσύνης εγείρει έντονα ζητήματα σχετικά με τη συμβατότητα της τεχνολογίας με το δικαίωμα προστασίας προσωπικών δεδομένων και εκείνο του πληροφοριακού αυτοκαθορισμού. Πληθώρα δεδομένων που χρησιμοποιούνται στη τεχνητή νοημοσύνη αποτελούν προσωπικά δεδομένα και πολλά εξ αυτών ανήκουν στις ειδικές κατηγορίες. Επεξηγηματικά, για τη λειτουργία της τεχνητής νοημοσύνης απαιτείται η συλλογή και επεξεργασία μεγάλων συνόλων δεδομένων που δύσκολα τίθενται υπό τον έλεγχο του υποκειμένου που αφορούν. Καθώς ο αλγόριθμος συχνά ξεπερνά τον δημιουργό του, λόγω της αδυναμίας του τελευταίου να κατανοήσει τον τρόπο λειτουργίας του, δεν είναι σε όλες τις περιπτώσεις εφικτή η ενημέρωση του υποκειμένου των δεδομένων σχετικά με τον τρόπο λειτουργίας του αλγορίθμου και, κατ’ επέκταση, για τα δεδομένα συλλογής και την ευρύτερη επεξεργασία τους. Με τον τρόπο αυτό δεν πληρούται η αρχή της διαφάνειας. Παράλληλα, οι ανακρίβειες αναφορικά με πρόσωπα εγείρουν ζητήματα περί παραβιάσεως της αρχής της ακρίβειας των δεδομένων. Άλλοι συνήθεις κίνδυνοι έγκεινται σε μη εξουσιοδοτημένη πρόσβαση σε δεδομένα των εκπαιδευομένων και τη χρήση των δεδομένων τους για άλλους σκοπούς πέραν της εκπαιδεύσεως. Στην κατεύθυνση αυτή η ιταλική ΑΠΔΠΧ διέταξε τον προσωρινό περιορισμό της επεξεργασίας των δεδομένων των Ιταλών χρηστών κατά της OpenAI, της αμερικανικής εταιρείας που ανέπτυξε και διαχειρίζεται την πλατφόρμα ChatGPT. Παράλληλα, η Αρχή ξεκίνησε έρευνα. H ιταλική Αρχή επεσήμανε την απουσία ενημερώσεως των χρηστών και όλων των ενδιαφερομένων μερών, των οποίων τα δεδομένα συλλέγονται από την OpenAI, αλλά κυρίως την απουσία νομικής βάσεως που να δικαιολογεί τη μαζική συλλογή και αποθήκευση προσωπικών δεδομένων με σκοπό την «εκπαίδευση» των αλγορίθμων που διέπουν τη λειτουργία της πλατφόρμας. Παρά το γεγονός ότι -σύμφωνα με τους όρους που δημοσίευσε η OpenAI- η υπηρεσία απευθύνεται σε άτομα άνω των 13 ετών, η ιταλική Αρχή παρατηρεί πως η απουσία οποιουδήποτε μηχανισμού για την επαλήθευση της ηλικίας των χρηστών εκθέτει τους ανηλίκους σε απαντήσεις εντελώς ακατάλληλες σε σχέση με το επίπεδο αναπτύξεως και αντιλήψεώς τους. Mε τον τρόπο αυτό τίθεται εύγλωττα το ζήτημα της ευθύνης του υπευθύνου επεξεργασίας για τη λήψη κατάλληλων τεχνικών και οργανωτικών μέτρων που θα εμποδίζει την πρόσβαση παιδιών σε αυτού του είδους το λογισμικό. Η OpenAI, η οποία δεν διαθέτει εγκατάσταση στην Ευρωπαϊκή Ένωση, αλλά έχει ορίσει αντιπρόσωπο στον Ευρωπαϊκό Οικονομικό Χώρο, οφείλει να γνωστοποιήσει εντός 20 ημερών τα μέτρα που έλαβε για την υλοποίηση του αιτήματος της Garante, με ποινή προστίμου έως 20 εκατ. ευρώ ή έως 4% του παγκόσμιου ετήσιου κύκλου εργασιών.
6. Κίνδυνοι για τον φιλελεύθερο χαρακτήρα του δημοκρατικού πολιτεύματος
Η επιβολή μιας «δικτατορίας» του μέσου όρου στην επιστήμη, η παροχή συγκεκριμένης, προμελετημένης, ελεγμένης γνώσεως επισείει τον κίνδυνο της υποχωρήσεως του φιλελεύθερου χαρακτήρα του πολιτεύματός μας, υπό την έννοια μιας επιβολής του μέσου όρου στην επιστήμη και εν γένει τη σκέψη μας, της εδραιώσεως μιας κοινής αντιλήψεως περί των πραγμάτων αλλά και της διαδόσεως παραπλανητικών ή ψεύτικων ειδήσεων. Εύλογα τίθεται το ερώτημα αν πρέπει να παρέμβουμε νομοθετικά, προκειμένου να διαφυλάξουμε τον πυρήνα της φιλελεύθερης δημοκρατίας. Το ερώτημα αυτό είναι πολυπαραμετρικό, καθώς η εδραίωση μιας συγκεκριμένης αντιλήψεως οδηγεί με τη σειρά της στην εδραίωση μιας συγκεκριμένης εκλογικής προτιμήσεως και εν προκειμένω στην έμμεση χειραγώγηση της ψήφου.
Σελ. 12ΙV. Πoια είναι η δέουσα στάση της επιστημονικής κοινότητας;
Είναι γεγονός ότι η νέα τεχνολογία έχει προκαλέσει έντονη ανησυχία στην εκπαιδευτική κοινότητα. Μήπως επήλθε ο θάνατος του συγγραφέα ή του αναγνώστη; Γίνεται λόγος για αποψίλωση του οικοσυστήματος της γνώσεως. Και αυτό, διότι η ανάπτυξη της γνώσεως έχει ως αφετηρία ζητήματα στα οποία εντρυφά ο μελετητής, όπως δημοσιεύσεις επιστημονικών εργασιών και βιβλίων που οικοδομούνται πάνω σε προηγούμενες. Η εκπαίδευση πηγάζει από αυτό που «παίδευσε» τον εκπαιδευτή και μετά από τη βάσανο της πνευματικής αναζητήσεως είναι σε θέση να μεταλαμπαδεύσει τις γνώσεις του στους εκπαιδευόμενους. Η απαίδευτη απάντηση σε οποιοδήποτε τιθέμενο ερώτημα φαίνεται να στερεί τους εκπαιδευόμενους από τις απαραίτητες αλληλεπιδράσεις με το οικοσύστημα της γνώσεως. Η αυτόματη απάντηση μας στερεί το ταξίδι της γνώσεως. Φόβοι εκφράζονται για την εξασθένηση της πρωτότυπης πνευματικής δημιουργίας και της κριτικής σκέψεως. Ήλθε, άραγε, το τέλος εποχής της δεξιότητας της συμβατικής γραφής και εν γένει της εκπαιδεύσεως; Πρόκειται περί διανοητικής επαναστάσεως, περί φενάκης ή περί μιας κοινοτυπίας του κακού; Ας μη βιαζόμαστε σε πρόχειρα συμπεράσματα.
Το ερώτημα, όμως, παραμένει βασανιστικό: Πώς αντιμετωπίζουμε το λογισμικό; Μια προτεινόμενη λύση είναι να αποτάξουμε την τεχνολογία, γυρίζοντας το ρολόι πίσω στον 20ό αιώνα, αναγκάζοντας τους μαθητές και φοιτητές να γράφουν τις εξεταστικές εργασίες με στυλό και χαρτί, χωρίς τη χρήση ηλεκτρονικών συσκευών που συνδέονται με το Διαδίκτυο. Εν προκειμένω, το Πανεπιστήμιο της Καλιφόρνιας στο Λος Άντζελες εξετάζει το ενδεχόμενο να καταστεί παραβίαση του δεοντολογικού κώδικα τιμής η χρήση του ChatGPT για τη συμμετοχή σε εξετάσεις ή τη συγγραφή εργασιών. Στη Γερμανία το Πανεπιστήμιο του Τίμπιγκεν αποφάσισε να περιορίσει τη χρήση του εν λόγω λογισμικού για φοιτητές και ερευνητές. Οι λόγοι του ενδοιασμού δεν είναι άμοιροι προβληματισμού. Οι εκπαιδευόμενοι μπορεί να βασίζονται υπερβολικά στο μοντέλο. Οι αβίαστα παραγόμενες πληροφορίες θα μπορούσαν να επηρεάσουν αρνητικά την κριτική σκέψη και τις δεξιότητες επιλύσεως προβλημάτων. Αυτό οφείλεται στο γεγονός ότι το μοντέλο απλοποιεί την απόκτηση απαντήσεων ή πληροφοριών, γεγονός που μπορεί να ενισχύσει την ραστώνη και να εξουδετερώσει το ενδιαφέρον τους να διεξάγουν τις δικές τους έρευνες και να καταλήξουν στα δικά τους συμπεράσματα ή λύσεις. Ωστόσο, η απαγόρευση είναι μια τεχνοφοβική προσέγγιση, εάν ακολουθηθεί εν συνόλω. Δεν είναι άμοιρες προβληματισμού οι φωνές εκείνων που προτρέπουν τους φοιτητές τους να χρησιμοποιούν το ChatGPT στις γραπτές εργασίες τους. Αντί να απαγορεύουμε στους εκπαιδευόμενους να χρησιμοποιούν εργαλεία γραφής με τεχνητή νοημοσύνη που εξοικονομούν εργασία και χρόνο, θα πρέπει να τους διδάξουμε να τα χρησιμοποιούν δεοντολογικώς και παραγωγικά, προκειμένου να κατανοήσουν το πολύπλοκο ζήτημα της διαφορετικότητας των πηγών και εν γένει της εκπαιδευτικής διαδικασίας. Προτιμότερος και ρεαλιστικότερος, εν προκειμένω, είναι ο αυστηρός έλεγχος του συστήματος.
Σελ. 13 Για να παραμείνουν ανταγωνιστικοί καθ’ όλη τη διάρκεια της σταδιοδρομίας τους, οι εκπαιδευόμενοι πρέπει να μάθουν πώς να προτρέπουν ένα εργαλείο συγγραφής τεχνητής νοημοσύνης να αποσπάσει αξιόλογο αποτέλεσμα και να γνωρίζουν πώς να αξιολογούν την ποιότητα, την ακρίβεια και την πρωτοτυπία του. Για τον λόγο αυτό, το λογισμικό πρέπει να αποτελέσει εργαλείο-αρωγό του μαθήματος. Πρέπει να μάθουν να συντάσσουν καλά οργανωμένα, συνεκτικά δοκίμια που περιλαμβάνουν ένα μείγμα κειμένου που παράγεται από τεχνητή νοημοσύνη και παραδοσιακή γραφή. Ως επαγγελματίες θα πρέπει να μάθουν πώς να συνεργάζονται παραγωγικά με τα συστήματα τεχνητής νοημοσύνης, χρησιμοποιώντας τα για να συμπληρώνουν και να ενισχύουν την ανθρώπινη δημιουργικότητα με την εξαιρετική δύναμη που υπόσχεται η τεχνητή νοημοσύνη. Εκτός από τους παιδαγωγικούς λόγους για την αντιμετώπιση του ChatGPT ως ευκαιρία και όχι ως απειλή, υπάρχουν και πρακτικοί λόγοι: Είναι ουτοπικό να απαγορευτεί αποτελεσματικά η πρόσβαση σε αυτή την τεχνολογία, πέραν του ότι τίθενται και ζητήματα ακαδημαϊκής ελευθερίας. Το λογισμικό είναι ελεύθερα προσιτό και οι εκπαιδευόμενοι δεν μπορούν να ελέγχονται στον ελεύθερο χώρο της ιδιωτικής τους ζωής. Η λογική της καθολικής απαγορεύσεως δεν επιλύει το πρόβλημα. Η επιβολή μιας ολικής απαγορεύσεως χρήσεως του ChatGPT θα προκαλούσε επίσης αναπόφευκτα την αδικία των ψευδώς θετικών και των ψευδώς αρνητικών αποτελεσμάτων κατά τον έλεγχο χρήσεως του λογισμικού. Κάποιοι εκπαιδευόμενοι που χρησιμοποιούν το ChatGPT παρά την απαγόρευση θα μπορούσαν, από τύχη ή χάρη στην αρκετά προσεκτική επεξεργασία του κειμένου που παράγεται από την τεχνητή νοημοσύνη, να αποφύγουν να επισημανθεί το κείμενό τους ως υποβοηθούμενο από αυτή. Ακόμα χειρότερα, κάποιοι εκπαιδευόμενοι θα κατηγορούνταν ψευδώς ότι χρησιμοποιούν το ChatGPT, προκαλώντας τεράστιο άγχος οδηγούμενοι σε κυρώσεις για ένα ολίσθημα που δεν διέπραξαν. Θα ήταν υπεροπτικό να αγνοήσουμε μια εφαρμογή που προσφέρει εξατομικευμένη διδασκαλία και ανατροφοδότηση στους εκπαιδευόμενους με βάση τις ατομικές μαθησιακές τους ανάγκες και την πρόοδό τους. Η εφαρμογή θα μπορούσε να παρέχει εξατομικευμένη διδασκαλία μαθηματικών σε εκπαιδευόμενους, με αποτέλεσμα να σημειώνονται βελτιωμένα μαθησιακά αποτελέσματα. Η εφαρμογή μπορεί να βοηθήσει στην ανάπτυξη δεξιοτήτων αναγνώσεως και γραφής (π.χ. προτείνοντας συντακτικές και γραμματικές διορθώσεις), καθώς και στην ανάπτυξη του τρόπου γραφής και των δεξιοτήτων κριτικής σκέψεως. Τα μοντέλα αυτά μπορούν να χρησιμοποιηθούν για τη δημιουργία ερωτήσεων και ως προτροπές που ενθαρρύνουν τους εκπαιδευόμενους να σκέφτονται κριτικά για αυτά που διαβάζουν και γράφουν και να αναλύουν και να ερμηνεύουν τις πληροφορίες που τους παρουσιάζονται. Aυτό δεν σημαίνει ότι το λογισμικό μπορεί να αντικαταστήσει τον δάσκαλο, αλλά να τον υποβοηθήσει. Περαιτέρω, δεν θα πρέπει να διαλάθει την προσοχή μας η δυνατότητα που προσφέρει το λογισμικό για την ενδυνάμωση των εκπαιδευόμενων με αναπηρίες. Τα γλωσσικά μοντέλα μπορούν να χρησιμοποιηθούν για την ανάπτυξη στρατηγικών μαθήσεως χωρίς αποκλεισμούς με επαρκή υποστήριξη σε εργασίες όπως η προσαρμοστική γραφή, η μετάφραση και η επισήμανση σημαντικού περιεχομένου σε διάφορες μορφές. Ωστόσο, είναι σημαντικό να σημειωθεί ότι η χρήση μεγάλων
Σελ. 14 γλωσσικών μοντέλων θα πρέπει να συνοδεύεται από τη βοήθεια επαγγελματιών, όπως οι ομιλητές θεραπευτές, εκπαιδευτικοί και άλλοι ειδικοί που μπορούν να προσαρμόσουν την τεχνολογία στις ειδικές ανάγκες των αναπηριών του μαθητή. Η συγγραφή ενός καλού δοκιμίου από μηδενική βάση απαιτεί προσεκτική, συχνά επίπονη, σκέψη σχετικά με την οργάνωση, τη ροή και την επικοινωνία. Αυτή μπορεί να καλλιεργηθεί ως δεξιότητα στις πρώτες εκπαιδευτικές τάξεις. Η εκμάθηση της γραφής χωρίς τη χρήση της τεχνητής νοημοσύνης προάγει πράγματι την εστιασμένη, πειθαρχημένη σκέψη. Αλλά η εκμάθηση του επιτυχημένου συνδυασμού της συμβατικής γραφής και με την υποστήριξη της τεχνητής νοημοσύνης για τη δημιουργία πραγματικά καλών δοκιμίων απαιτεί, επίσης, αυτές τις δεξιότητες. Είναι σαν να γυρίζουμε την πλάτη μας στο μέλλον, να υπάρχει μια εφαρμογή και να λέμε ότι απαγορεύεται η χρήση της. Με την ίδια λογική θα μπορούσαμε να απαγορεύουμε την ανεύρεση πηγών μέσω μηχανισμών αναζητήσεως και την έρευνα μόνο σε συμβατικές βιβλιοθήκες. Το θέλουμε αυτό; Καλύτερο θα ήταν να επιτρέπεται η δημιουργική χρήση της τεχνητής νοημοσύνης, σκεπτόμενοι τρόπους συνδυασμού της τεχνητής νοημοσύνης με την παραδοσιακή εκπαίδευση. Πώς θα μπορούσε να γίνει αυτό;
1. Οι εκπαιδευτικοί οφείλουν να μη κοιτάζουν αφ’ υψηλού τα ζητήματα νέων τεχνολογιών, αλλά να εκπαιδευτούν και να κατανοήσουν εν προκειμένω τι είναι και πώς λειτουργεί το ChatGPT και να ερευνήσουν τις τεχνολογικές εφαρμογές υπό το πρίσμα της ακαδημαϊκής ακεραιότητας.
2. Οι εκπαιδευόμενοι πρέπει να προετοιμαστούν για ένα μέλλον στο οποίο η τεχνητή νοημοσύνη θα είναι απλώς ένα ακόμη τεχνολογικό εργαλείο.
3. Οι εκπαιδευόμενοι είναι αποκλειστικά και πλήρως υπεύθυνοι για τα γραπτά που παραδίδουν και φέρουν το όνομά τους. Αν εμπεριέχουν ανακρίβειες, ευθύνονται για την ανεύρεση της αλήθειας. Αν η διάρθρωση πάσχει και πάλι φέρουν την ευθύνη της υπογραφής τους. Αν το κείμενο είναι υφολογικά ή λογικά ασυνεπές, είναι δική τους ευθύνη. Αν σημειώνεται εν μέρει λογοκλοπή και πάλι θα ευθύνονται νομικά για αυτή. Ως εκ τούτου, ευθύνονται για τον έλεγχο και την αξιολόγηση των πηγών τους και προπάντων οφείλουν να προσθέτουν παραπομπές στο κείμενό τους, κάτι που μέχρι τώρα δεν προσφέρει το λογισμικό.
4. Υπό αυτή την έννοια, οι εκπαιδευόμενοι πρέπει να ενθαρρύνονται να είναι υπεύθυνοι, συνειδητοποιημένοι χρήστες των τεχνολογιών τεχνητής νοημοσύνης που θα διαδραματίσουν εξαιρετικά σημαντικό ρόλο κατά τη διάρκεια της σταδιοδρομίας τους.
Η υπευθυνότητα αυτή συνεπάγεται την υποχρέωση αναφοράς της χρήσεως του λογισμικού στο κείμενο.
5. Οι εκπαιδευτές θα πρέπει να αλλάξουν στόχευση και να αποδίδουν μεγαλύτερη σημασία στον τρόπο διδασκαλίας, να υιοθετήσουν μια διαφορετική αντίληψη για τη μέθοδο διδασκαλίας.
6. Χωρίς να σημαίνει ότι αποκηρύσσουμε-απαγορεύουμε την τεχνολογία, θα μπορούσαμε να σκεφτούμε κάποιους εναλλακτικούς-συμπληρωματικούς τρόπους μαθήσεως και εξετάσεως, όπως:
Α) Καλλιέργεια της συμβατικής γραφής από τις χαμηλές τάξεις προκειμένου οι μαθητές να μην αποκοπούν από αυτή την πολύ χρήσιμη δεξιότητα.
Β) H επίδοση των εκπαιδευομένων μπορεί να (συν)αξιολογείται μέσα από συμβατικές εξετάσεις χωρίς τη χρήση κινητού τηλεφώνου.
Γ) Οι εκπαιδευόμενοι συνιστάται να εξετάζονται προφορικά σε κριτικά ζητήματα επί των εργασιών τους.
Δ) Oι ερωτήσεις των θεμάτων συνιστάται να είναι πιο κριτικές, προκειμένου να μην είναι εύκολο να τις συνθέσει το μηχάνημα. Οφείλουμε να μορφώσουμε τον κόσμο, ώστε να έχουμε πολίτες και επιστήμονες με κριτική σκέψη και να απαλλαχθούμε από τη δικτατορία του μέσου όρου.
Σελ. 15 Ε) Οι εξετάσεις μπορούν να διεξάγονται εξ αποστάσεως διαδικτυακά με χρήση συστημάτων τεχνητής νοημοσύνης που ελέγχουν κάθε ύποπτη ενέργεια του εξεταζομένου, συμπεριλαμβανομένης της χρήσεως λογισμικού. Με τον τρόπο αυτό διεξήχθησαν οι εξετάσεις για την επιλογή επιτελικών στελεχών στη δημόσια διοίκηση. Αυτού του είδους η εξέταση απαιτεί την προηγούμενη εκπόνηση μελέτης αντικτύπου της τεχνολογίας στα δικαιώματα των εξεταζομένων.
ΣΤ) Οι εξεταστές συνιστάται να υποβάλλουν τα τιθέμενα ερωτήματα στο λογισμικό για να γνωρίζουν τις απαντήσεις που αυτό δίνει, καίτοι το λογισμικό δίδει κάθε φορά διαφορετικές απαντήσεις.
V. Aντί επιλόγου
Όπως κάθε νέα τεχνολογία, έτσι και το ChatGPT είναι μια νέα πρόκληση. Εναπόκειται σε μας να μη τη δαιμονοποιήσουμε αλλά να προβούμε σε ηθική χρήση της τεχνολογίας εντρυφώντας στις βασικές αρχές της λογικής, της ηθικής φιλοσοφίας και της αισθητικής. Οφείλουμε να αξιοποιήσουμε τα αναρίθμητα πλεονεκτήματα της τεχνολογίας αξιολογώντας και ελέγχοντας τους όποιους κινδύνους μπορεί αυτή να συνεπιφέρει. Μπορούμε να ελέγχουμε την τεχνολογία με τη βοήθεια της ίδιας της τεχνολογίας. Καθοριστικής σημασίας στον τομέα αυτό είναι η διαφάνεια και επεξηγησιμότητα της τεχνολογίας.