Εάν οι μηχανές συνεχίσουν να αναπτύσσουν συνείδηση, αντίληψη, συναισθήματα, ικανότητα ανεξάρτητης δράσης και λήψης ηθικών αποφάσεων και άλλα ανθρώπινα χαρακτηριστικά που τους προσδίδουν μια ορισμένη ανθρωποειδή ταυτότητα, τίθεται το ερώτημα πώς θα τις αντιμετωπίσουν οι κοινωνίες και τα συνταγματικά συστήματα.
Θα αποκτήσουν κάποιου είδους νομικό καθεστώς;
Τονίζεται ότι μπορούμε ήδη να δούμε πώς τα βασικά δυτικά συστήματα τεχνητής νοημοσύνης φορτώνουν ή ενσωματώνουν τις δικές τους ιδεολογικές, πολιτικές και γεωπολιτικές θέσεις στους αλγορίθμους τους και ότι κάθε πολιτισμός ή μεγαλύτερο κράτος που έχει τη δυνατότητα να το κάνει αυτό θα πρέπει να δημιουργήσει το δικό του σύστημα τεχνητής νοημοσύνης και να προσπαθήσει να το ελέγξει κυρίαρχα και να υποχρεώσει τους πολίτες του να το χρησιμοποιούν.
Ως εκ τούτου, είναι προφανές ότι το επόμενο βήμα σε αυτόν τον τομέα είναι το ζήτημα της ρύθμισης, το οποίο έχει συζητηθεί ευρέως. Τα πρώτα σημαντικά βήματα έχουν γίνει, όπως ο κανονισμός 2024/1689 της ΕΕ της 13ης Ιουνίου 2024, ο οποίος θεσπίζει εναρμονισμένους κανόνες για την Τεχνητή Νοημοσύνη. Αυτή η πράξη της Ευρωπαϊκής Ένωσης για την ΤΝ, η EUVIA είναι η πρώτη υπερεθνική νομικά δεσμευτική πράξη του είδους της.
Ωστόσο, δημιουργήθηκε ως αντίδραση σε ηθικά και νομικά προβλήματα που αποτελούν αντικείμενο σημαντικών συζητήσεων εδώ και σχεδόν 10 χρόνια, οπότε εδώ θα προσπαθήσουμε να παρουσιάσουμε ορισμένα από τα σημαντικότερα ζητήματα που θα πρέπει να αντιμετωπίσει ο κανονισμός τόσο σε επίπεδο μεμονωμένων κρατών όσο και σε επίπεδο διεθνών πράξεων. Δεδομένου ότι συμμετέχω εδώ και ένα χρόνο σε ένα έργο στο οποίο εξετάζουμε τις ηθικές και νομικές πτυχές της τεχνητής νοημοσύνης, πιστεύω ότι οι γνώσεις μας θα μπορούσαν να φανούν χρήσιμες στους συναδέλφους μας.
Θα πρέπει να ξεκινήσουμε με την ανάλυση της UNESCO, η οποία έχει ξεχωρίσει τέσσερα βασικά πεδία.
1. Μεροληπτική τεχνητή νοημοσύνη. Η ΤΝ αναπαράγει προκαταλήψεις και στερεότυπα από τον κόσμο που κληρονόμησε και από τον οποίο αντλεί δεδομένα, σχέσεις και τρόπους αναπαράστασης. Ως εκ τούτου, μέρος του καθήκοντος σε αυτόν τον τομέα δεν είναι μόνο να μπορέσει το ρομπότ να δώσει τις ζητούμενες απαντήσεις όσο το δυνατόν πιο πιστά στους ανθρώπους, αλλά και να το διδάξει να τυποποιεί ηθικά τον κόσμο που χτίζει και να αποφεύγει τις διακρίσεις και την αντιμετώπιση ορισμένων εθνοτικών, φυλετικών και άλλων ομάδων ως προβληματικών. Είναι ήδη γνωστό το παράδειγμα ότι, κατά κανόνα, οι μαύροι και οι μελαμψοί, οι μουσουλμάνοι κ.λπ. εμφανίζονται συχνότερα στις αναζητήσεις για «ταραχές στα προάστια» ή «εγκληματικότητα».
2. Ο επόμενος σημαντικός και δυνητικά αμφιλεγόμενος τομέας είναι η χρήση της ΤΝ στα δικαστήρια. Υπάρχει η ιδέα ότι θα μπορούσε να απονέμει δικαιοσύνη ταχύτερα, καλύτερα και αποτελεσματικότερα από τους δικαστές, τους ζωντανούς ανθρώπους με τις κληρονομημένες προκαταλήψεις, συνήθειες και προκαταλήψεις τους. Αναφέρεται επίσης η ιδέα ότι μπορεί να βοηθήσει τους εισαγγελείς στην προετοιμασία της υπόθεσης, καθώς και τους νομοθέτες στο κοινοβούλιο. Σε κάθε περίπτωση, μιλάμε για αυτό που έχει ονομαστεί «αυτοματοποίηση της δικαιοσύνης»: τη δημιουργία ειδικού λογισμικού για αυτού του είδους τις δραστηριότητες.
Εδώ προκύπτουν οι εξής προκλήσεις: α) έλλειψη διαφάνειας, επειδή το σύστημα δεν είναι ορατό στους ανθρώπους, β) η τεχνητή νοημοσύνη δεν είναι ουδέτερη, αλλά υπόκειται σε ανακρίβειες, σε αποτελέσματα που εισάγουν διακρίσεις, σε ενσωματωμένες ή ενσωματωμένες προκαταλήψεις, γ) τεράστιο πρόβλημα παρακολούθησης, παραβίασης της ιδιωτικής ζωής και συλλογής δεδομένων για τα άτομα που οδηγούνται στο δικαστήριο, ζ) ανησυχίες για τη δικαιοσύνη και τα ανθρώπινα δικαιώματα, την αναλογικότητα της ποινής σε σχέση με το έγκλημα που διαπράχθηκε, την παρανόηση του πλαισίου, τα ελαφρυντικά κ.λπ.
Υπάρχουν ιδέες ότι, με τη βοήθεια της τεχνητής νοημοσύνης, θα μπορούσε κανείς να υπολογίσει πόση ποινή πρέπει να επιβληθεί σε έναν παραβάτη ή αν πρέπει να τον αποφυλακίσει πρόωρα από την έκτιση της ποινής του, με βάση εκτιμήσεις για την κατηγορία στην οποία ανήκει, την πιθανότητα επανάληψης της ποινής, κ.λπ.
3. Τεράστια προβλήματα έχουν προκύψει στη δημιουργικότητα και τις δημιουργικές βιομηχανίες. Για παράδειγμα, όταν πρόκειται για τον ρόλο της τεχνητής νοημοσύνης στη δημιουργία τέχνης και έργων τέχνης. Υπάρχει ένα ήδη γνωστό παράδειγμα με τον Ρέμπραντ. Η τεχνητή νοημοσύνη δημιούργησε μια εντελώς νέα εικόνα με βάση τη βαθιά μάθηση και τη μελέτη των έργων του Ρέμπραντ.
Το βασικό ερώτημα που ενδιαφέρει όλους είναι ποιος είναι τώρα ο δημιουργός αυτού του νέου έργου: η εταιρεία, οι μηχανικοί ή ο ίδιος ο Ρέμπραντ; Θα συμφωνούσε ο ίδιος ο Ρέμπραντ ή οι διάδοχοί του ότι η τεχνητή νοημοσύνη δημιουργεί στο πνεύμα του και έτσι παραμελεί την ανεπανάληπτη φύση ως βάση της καλλιτεχνικής δημιουργίας της ιδιοφυΐας; Ένα άλλο σχετικό παράδειγμα είναι το έργο των ρομπότ της Huawei για την ολοκλήρωση της Όγδοης, της ημιτελούς συμφωνίας του Σούμπερτ.
Όλα αυτά είναι προβληματικά και εγείρουν τεράστια ερωτήματα σχετικά με το μέλλον της τέχνης και της δημιουργικότητας. Για παράδειγμα, την προστασία των δικαιωμάτων, την αποτροπή άλλων να χρησιμοποιούν το έργο σας ή την εξεύρεση τρόπου να πληρώνεστε γι’ αυτό. Αλλά πάνω απ’ όλα, αναφέρονται τα προβλήματα της ακεραιότητας της δημιουργικότητας και του τρόπου προστασίας και διατήρησης της ανθρώπινης δημιουργικότητας, της πρωτοτυπίας και της ιδιοφυΐας, από τη βιομηχανική μάθηση και τη μίμηση από τις μηχανές.
Επίσης, πώς διακρίνει κανείς την πειρατεία και τη λογοκλοπή από την πρωτοτυπία και τη δημιουργικότητα; Είναι πολύ δύσκολο να καθοριστούν τα όρια της λογοκλοπής, ακόμη και στον κόσμο πριν από την τεχνητή νοημοσύνη, και μόνο με την ανάπτυξή της θα υπάρχει αυξανόμενο πρόβλημα και αγώνας στη γκρίζα ζώνη.
4. Αυτόνομα οχήματα. Η χρήση και η ανάπτυξη αυτόνομων μηχανών συνεπάγεται τεράστια προβλήματα και διλήμματα τόσο στην πολιτική χρήση, όσο ίσως και περισσότερο στον στρατό, όπου ήδη αναπτύσσεται και χρησιμοποιείται ευρέως, ανεξάρτητα από τη δυσαρέσκεια και τους φόβους μας. Παρόλο που τα οχήματα αυτά θα συμβάλουν στην κινητικότητα ηλικιωμένων, ασθενών ή τυφλών ανθρώπων, αναπόφευκτα προκύπτουν ερωτήματα και νέου τύπου προβλήματα. Για παράδειγμα, για την ανάπτυξη ενός αυτόνομου αυτοκινήτου ή λεωφορείου που θα χρησιμοποιηθεί στις αστικές μεταφορές, πρέπει να συλλεχθούν και να επεξεργαστούν πολλά δεδομένα, τα οποία το λογισμικό του αυτοκινήτου συλλέγει από όλες τις πλευρές και στη συνέχεια τα επεξεργάζεται.
Οι μέθοδοι συλλογής είναι πολύ αμφιλεγόμενες και υπάρχει πάντα η πιθανότητα σφαλμάτων και λαθών που σε αυτόν τον τομέα μπορεί να έχουν μοιραίες συνέπειες για πολλούς ανθρώπους που εμπλέκονται στην κυκλοφορία, όχι μόνο για εκείνους που θα βρίσκονται μέσα στο όχημα.
Η τεχνητή νοημοσύνη θα πρέπει επίσης να λαμβάνει αποφάσεις για να επιλέξει π.χ. ποιον θα χτυπήσει στη διάβαση πεζών αν τα φρένα είναι χαλασμένα. Υπάρχει ήδη το γνωστό παράδειγμα ενός λεωφορείου τρόλεϊ με σπασμένα φρένα που ορμάει προς τους ανθρώπους σε μια διάβαση πεζών, το οποίο πρέπει να πάρει μια ηθική απόφαση αν θα συνεχίσει προς αυτή την κατεύθυνση και θα σκοτώσει πέντε ανθρώπους που βρίσκονται στη διάβαση, ή αν θα στρίψει προς το παγκάκι στην πλευρά όπου κάθεται ένα άτομο.
Όλα αυτά περιπλέκονται ακόμη περισσότερο όταν εξετάζουμε τη χρήση της τεχνητής νοημοσύνης για την ανάπτυξη ρομπότ και άλλων μηχανών για στρατιωτική χρήση. Στρατιωτικοί κύκλοι εργάζονται εδώ και καιρό πάνω σε μηχανισμούς για τη λεγόμενη ενίσχυση των στρατιωτών, προκειμένου να καταστείλουν το άγχος και να καταστήσουν αδύνατη τη διάπραξη μαζικών εγκλημάτων ως αποτέλεσμα, αλλά και να αυξήσουν την αντοχή και την ικανότητα δράσης. Η χρήση μηχανών που δεν υποφέρουν από άγχος και λειτουργούν υπό πίεση φαίνεται να είναι η ιδανική λύση. Ως εκ τούτου, αναπτύσσονται ευρέως αυτόνομα μη επανδρωμένα αεροσκάφη, οχήματα και ρομπότ που θα λαμβάνουν οι ίδιοι αποφάσεις για την επιλογή στόχων και την εξουδετέρωσή τους.
Σε ό,τι αφορά τα δεδομένα, αυτά αποτελούν φυσικά τη σημαντικότερη πηγή για την ανάπτυξη της τεχνητής νοημοσύνης, η οποία συνεπάγεται προβλήματα με την προστασία της ιδιωτικής ζωής, την κατάχρηση των δεδομένων, τα παράνομα και αθέμιτα μέσα συλλογής και επεξεργασίας, τους αμφιλεγόμενους μεσίτες δεδομένων κ.λπ.
Έχουμε το παράδειγμα της εταιρείας GlaxoSmithKline, η οποία αγόρασε τα αποκλειστικά δικαιώματα έρευνας των γενετικών δεδομένων των πελατών της εταιρείας εξέτασης DNA 23andme για σκοπούς ανάπτυξης φαρμάκων. Οι μεγαλύτερες εταιρείες Big Tech είναι στην καλύτερη θέση να συλλέγουν αυτά τα δεδομένα, τα οποία ο Arvind Gupta λέει ότι είναι το νέο πετρέλαιο, και υπάρχει εύλογος φόβος για το ολιγοπώλιο τους στον τομέα της ΤΝ. Ως εκ τούτου, οι άλλες χώρες θα πρέπει πρώτα να ρυθμίσουν τη μέθοδο συλλογής δεδομένων, αλλά και να βοηθήσουν τις δικές τους εταιρείες να χρησιμοποιήσουν τα δεδομένα για την ανάπτυξη εγχώριων συστημάτων ΤΝ.
Μεταξύ των σημαντικότερων προβλημάτων είναι, κυρίως, το ζήτημα του ελέγχου της γενικότερης ανάπτυξης των μηχανών, δηλαδή το ερώτημα αν και πότε αυτές θα φτάσουν, αφενός, σε μια «μοναδικότητα» όπου οι άνθρωποι δεν θα μπορούν πλέον να τις ακολουθούν, και αφετέρου, θα πάρουν τις θέσεις εργασίας από τους ανθρώπους, κάτι που ήδη απειλεί πολλά επαγγέλματα στον κλάδο του σχεδιασμού, των εκδόσεων κ.λπ.
Εξαιρετικό ενδιαφέρον παρουσιάζουν επίσης τα ζητήματα της χρήσης της τεχνητής νοημοσύνης για τη δημιουργία λογισμικού αναγνώρισης προσώπου ή η ανάπτυξή της στην αγορά των κούκλων πορνείας, δεδομένου ότι οι πρώτοι οίκοι ανοχής αυτού του τύπου άνοιξαν πριν από 6 χρόνια!
Από την άλλη πλευρά, αν οι μηχανές συνεχίσουν να αναπτύσσουν συνείδηση, συνείδηση, αντίληψη, συναισθήματα, ικανότητα να ενεργούν ανεξάρτητα και να λαμβάνουν ηθικές αποφάσεις και άλλα ανθρώπινα χαρακτηριστικά που τους προσδίδουν μια ορισμένη ανθρωποειδή ταυτότητα, τίθεται το ερώτημα πώς θα τις αντιμετωπίσουν οι κοινωνίες και τα συνταγματικά συστήματα.
Θα αποκτήσουν κάποιο νομικό καθεστώς; Θα έχουν δικαιώματα; Θα τους αντιμετωπίζουμε όπως τα κατοικίδια; Θα μπορούν οι μηχανές να υποφέρουν και θα πρέπει τότε να τους εγγυηθούμε το δικαίωμα προστασίας από τον πόνο, τον τραυματισμό ή την κακοποίηση;
Τέλος, πώς θα καθορίσουμε τη διάρκεια ζωής των ρομπότ και των μηχανών τεχνητής νοημοσύνης και πώς θα αποφασίσουμε πότε είναι καιρός να τα εξαλείψουμε; Θα έχουμε γάμους μεταξύ ανθρώπου και μηχανής με την ΤΝ;
Εξαιτίας όλων αυτών, μετά από μια σειρά προσπαθειών να περάσουν πράξεις αυτορρύθμισης μεταξύ των φορέων του τομέα αυτού, εμπλέκονται επίσης κράτη και διεθνείς οργανισμοί. Στις ΗΠΑ, ψηφίστηκαν οι πρώτες δικαστικές αποφάσεις που απαγόρευαν τη χρήση της τεχνητής νοημοσύνης σε ορισμένους τομείς (κοινωνική πολιτική, για παράδειγμα) ως επικίνδυνη και ανεπαρκής επειδή παραβιάζει τα δικαιώματα των πολιτών.
Σε αρκετές χώρες, μεταξύ των οποίων και η Σερβία, εκδόθηκαν οι πρώτες δικαστικές αποφάσεις που απαγορεύουν την προβολή και διανομή deepfakes, τα οποία μπορούν να παραποιήσουν λόγο, συμπεριφορές, ταινίες και εικόνες (π.χ. δημιουργία πορνοταινίας με την τραγουδίστρια Taylor Swift). Τέλος, η ΕΕ ψήφισε την πρώτη ολοκληρωμένη πράξη, την οποία θα παρουσιάσουμε σε ένα από τα επόμενα κείμενά μας.
Comments are closed.