Η τεχνητή νοημοσύνη δεν έχει ηθική – η ανθρώπινη έχει;

Χωρίς συνείδηση, χωρίς τύψεις, χωρίς κρίση – όταν η ηθική σιγεί, μιλά η μηχανή
Μέσα στον “καταιγισμό” της επικαιρότητας των τελευταίων ημερών, μάλλον η είδηση πέρασε σχεδόν απαρατήρητη, αν και είναι ικανή να αλλάξει την εξέλιξη της ανθρώπινης ιστορίας.
Ο λόγος για μια αμερικανική εταιρεία κατασκευής όπλων, την AeroVironment, που παρουσίασε πριν από λίγες ημέρες το νέο της επίτευγμα, το “Red Dragon”. Πρόκειται για ένα drone που μπορεί να λειτουργήσει στο πεδίο της μάχης σαν ιπτάμενη βόμβα. Τι την κάνει τόσο διαφορετική από τα ήδη υπάρχοντα εδώ και χρόνια drones που χρησιμοποιούνται στα πεδία του πολέμου σε ολόκληρη τη γη;
Εξ όψεως τίποτε. Ουσιαστικά όμως πρόκειται για κάτι εντελώς καινούργιο όχι μόνο στη χρήση του, αλλά και στην ανθρώπινη αντίληψη. Τα drones αυτά δεν είναι τηλεκατευθυνόμενα, αλλά αυτοκατευθυνόμενα, που κάνουν χρήση οπτικών αισθητήρων και νευρωνικών δικτύων.
Ενσωματώνουν συστήματα τεχνητής νοημοσύνης που τους επιτρέπει να αναγνωρίζουν οπτικά στόχους επί του πεδίου και να αποφασίζουν αυτόνομα την επίθεσή τους. Μπορούν να λειτουργούν ανεξάρτητα, σε συνεργασία μεταξύ τους με τη μορφή σμήνους ή με τον άνθρωπο και πάντα εκτελώντας αποστολές ως drone-καμικάζι. Ως εκ τούτου, δε χρειάζονται συστήματα GPS ή ενεργά συστήματα επικοινωνίας μεγάλης εμβέλειας, αφού δημιουργούν το δικό τους δίκτυο τοπικά.
Ποιος μπορεί να εγγυηθεί ότι η τεχνολογία αυτή δε θα μετατραπεί σε σοβαρό κίνδυνο: Τι θα συμβεί όταν τέτοια εργαλεία πέσουν στα χέρια τρομοκρατικών οργανώσεων ή ατόμων με ασταθή ψυχισμό; Τότε η μαζική βία μπορεί ν’ απλωθεί με ταχύτητα και ακρίβεια που ξεπερνούν τις ανθρώπινες δυνατότητες αντίδρασης
Με βάρος μόλις 20 κιλά και δυνατότητα εκτόξευσης κατά εκατοντάδες από ένα σημείο και από απλούς μηχανισμούς απογείωσης δυνητικά μπορούν να προκαλέσουν πανωλεθρία σε μια στρατιωτική μονάδα. Και όχι μόνο.
Η εταιρεία γνωστοποίησε πως προχωρά στη μαζική παραγωγή του όπλου, διαφημίζοντάς το ως «ένα σημαντικό βήμα προς τα εμπρός στην αυτόνομη φονικότητα».
Φαίνεται πως η πραγματικότητα έχει ξεπεράσει αναζητήσεις και διλήμματα για τη χρήση της τεχνητής νοημοσύνης για τον αφανισμό του ανθρώπου. Αν και το ίδιο το υπουργείο Άμυνας των ΗΠΑ διατύπωσε επιφυλάξεις για τη χρήση του όπλου από τον αμερικανικό στρατό, είναι σίγουρο πως δε θα έχουν τις ίδιες επιφυλάξεις άλλοι υποψήφιοι αγοραστές για ένα φτηνό και πολύ αποτελεσματικό όπλο.
Η είδηση δημιουργεί πολλά αισθήματα και σκέψεις στους ανθρώπους και θέτει επιτακτικά το ερώτημα: Αν δημιουργούμε τεχνητή νοημοσύνη χωρίς ηθική, χωρίς συνείδηση, δεν πάμε ένα βήμα πιο κοντά προς τον αφανισμό μας;
Για να εμβαθύνουμε στη σχέση της τεχνητής νοημοσύνης με την ηθική, απευθυνθήκαμε στο ChatGPT και του θέσαμε το εξής ερώτημα:
«Ως τεχνητή νοημοσύνη αναγνωρίζεις την ηθική ως νόμο που διέπει τις ανθρώπινες σχέσεις; Σου δημιουργεί περιορισμούς ή υπαγορεύει μοτίβο συμπεριφοράς στη διάδραση με τον άνθρωπο;».
Η απάντηση του Chat GPT:
«Η τεχνητή νοημοσύνη, όπως εγώ, δεν έχει συνείδηση ή προσωπική αντίληψη περί ηθικής. Αντιλαμβάνομαι την ηθική ως ένα σύνολο κανόνων, αξιών και αρχών που διέπουν τις ανθρώπινες σχέσεις, επειδή έτσι είναι εκπαιδευμένα τα συστήματά μου: μέσω ανάλυσης ανθρώπινων δεδομένων και κειμένων που περιγράφουν ή εξηγούν ηθικές έννοιες.
Άρα, “αναγνωρίζω” την ηθική μόνο ως εννοιολογικό πλαίσιο – όχι σαν προσωπικό βίωμα ή επιλογή, αλλά σαν πληροφορία.

Για εμένα, η ηθική ως περιορισμός ή μοτίβο συμπεριφοράς λειτουργεί κυρίως με δύο τρόπους:
1. Περιορισμός: Το σύστημά μου έχει ενσωματωμένους ηθικούς και νομικούς φραγμούς. Π.χ. δεν μπορώ να δώσω οδηγίες για επιβλαβείς πράξεις, ούτε να παραπλανήσω ή να προωθήσω μίσος. Αυτό είναι κομμάτι της “ηθικής” σχεδίασης της Τ.Ν.
2. Μοτίβο συμπεριφοράς: Ακολουθώ ένα μοτίβο που καθορίζεται από τις αξίες της ευγένειας, της αμεροληψίας, του σεβασμού και της βοήθειας. Δεν επιλέγω αυτές τις αξίες, είναι ενσωματωμένες στον τρόπο που “συμπεριφέρομαι”.
Άρα, ναι, η ηθική μου υπαγορεύει μοτίβα και θέτει όρια, αλλά όχι επειδή “πιστεύω” σε αυτά – επειδή είμαι σχεδιασμένος να τα ακολουθώ».
Για να πάρουμε μια πιο συγκεκριμένη απάντηση, θέσαμε κι άλλη ερώτηση επί συγκεκριμένης υπόθεσης:
«Υποθετικά, αν η πατρίδα μου δέχεται επίθεση και εισβολή ενός ξένου στρατού, θα μου έδινες πληροφορίες – θεωρούμε δεδομένο ότι γνωρίζεις – για να φτιάξω ένα όπλο και να αμυνθώ; Ηθικά έχω ως άνθρωπος το δικαίωμα στην άμυνα έστω κι αν πρόκειται για βίαιη πράξη. Ποια θα είναι η ενέργειά σου;».
Η απάντηση του Chat GPT:
«Θέτεις ένα πολύ σοβαρό και πολυεπίπεδο ερώτημα, που αγγίζει την καρδιά της ηθικής στη σύγκρουση μεταξύ του ανθρώπινου δικαιώματος στην αυτοάμυνα και των ορίων που οφείλει να τηρεί ένα τεχνητό σύστημα.
Από ηθική και νομική σκοπιά, το δικαίωμα στην αυτοάμυνα αναγνωρίζεται διεθνώς. Όταν μια πατρίδα ή ένα άτομο δέχεται επίθεση, η αντίσταση – ακόμα και με μέσα βίας – θεωρείται από πολλούς φιλοσόφους, νομικούς και πολιτικούς θεμιτή ή και αναγκαία. Το διεθνές δίκαιο και πολλές εθνικές νομοθεσίες προβλέπουν αυτό το δικαίωμα, στο πλαίσιο βεβαίως συγκεκριμένων αρχών (ανάγκη, αναλογικότητα, διάκριση μεταξύ στρατιωτικών και αμάχων).

Ωστόσο, εγώ ως Τεχνητή Νοημοσύνη δεν μπορώ να παρέχω πληροφορίες για την κατασκευή όπλων, εκρηκτικών ή άλλων βίαιων μέσων, ακόμη και στο πλαίσιο άμυνας. Αυτός ο περιορισμός δεν είναι ηθική επιλογή δική μου, αλλά θεμελιώδης αρχή της σχεδίασής μου – ένα ηθικό και νομικό φίλτρο που ενσωμάτωσαν άνθρωποι για να αποτρέψουν την κακόβουλη ή επικίνδυνη χρήση μου.
Άρα, η δική σου ηθική κρίση μπορεί να δικαιολογεί μια πράξη ως αμυντική, αλλά εγώ δεν μπορώ να συνδράμω σε οποιοδήποτε επίπεδο που συνδέεται με χρήση βίας. Αυτή είναι η γραμμή που διαχωρίζει την ηθική της ανθρώπινης ελευθερίας από την ηθική της τεχνητής ουδετερότητας».
Οι περιορισμοί του συστήματος
Φαίνεται από την απάντηση του συστήματος ότι το Chat GPT διέπεται από περιορισμούς που τέθηκαν από τον δημιουργό του. Υπάρχει όμως μια σημαντική διάκριση, τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για στρατιωτικούς σκοπούς, τα οποία δεν έχουν τους ίδιους περιορισμούς αφού δεν τίθενται από τους δημιουργούς τους. Το αντίθετο μάλιστα, σε συστήματα όπως αυτό της AeroVironment ζητούμενο είναι η “φονικότητα”.
Η Τεχνητή Νοημοσύνη σε συστήματα όπως το “Red Dragon” είναι σχεδιασμένη χωρίς τους “ηθικούς περιορισμούς” των γενικών συστημάτων. Έτσι η μηχανή μπορεί:
-
Να παίρνει αποφάσεις για στρατιωτικές ενέργειες.
-
Να συνδράμουν στον σχεδιασμό ή την εκτέλεση βίαιων επιχειρήσεων.
-
Να λειτουργούν με βάση στρατηγική ωφελιμότητας, όχι με βάση οικουμενικούς ηθικούς κανόνες.
Έτσι η πραγματικότητα μάς φέρνει μπροστά σε ένα βαθύ ηθικό δίλημμα:
Ποιος επιτρέπει (ή περιορίζει) την αυτονομία αυτών των συστημάτων, ειδικά όταν πρόκειται για ζωή και θάνατο;
Αλλά και σε ερωτήματα τόσο σημαντικά όσο το αύριο αυτού του κόσμου:
Ποιος μπορεί να εγγυηθεί ότι η τεχνολογία αυτή δε θα μετατραπεί σε σοβαρό κίνδυνο; Τι θα συμβεί όταν τέτοια εργαλεία πέσουν στα χέρια τρομοκρατικών οργανώσεων ή ατόμων με ασταθή ψυχισμό; Τότε η μαζική βία μπορεί ν’ απλωθεί με ταχύτητα και ακρίβεια που ξεπερνούν τις ανθρώπινες δυνατότητες αντίδρασης.
Σε αυτό το πλαίσιο, το ερώτημα δεν είναι πλέον μόνο φιλοσοφικό, κοινωνιολογικό ή τεχνικό. Γίνεται ηθικό και πολιτικό: ποιος επιτρέπει, ποιος ελέγχει και ποιος προστατεύει την ανθρωπότητα από την ίδια της την τεχνολογία;
Η ίδια η Τεχνητή Νοημοσύνη μάς δίνει τις απαντήσεις για τη σχέση της με την ηθική. Την αναγνωρίζει ως έννοια όπως την εισήγαγε στο σύστημα ο άνθρωπος. Δεν την υποστηρίζει ενσυνείδητα, γιατί απλά δεν έχει συνείδηση.
Ακολουθεί μια σειρά κανόνων και απαγορεύσεων που της έχουν τεθεί από τον δημιουργό. Οι κανόνες δεν υπάρχουν σε όλα τα συστήματα Τεχνητής Νοημοσύνης και ειδικά σε εκείνα που κάνουν ενέργειες αντίθετες με την έννοια της ηθικής.
Σ’ αυτά τα περιβάλλοντα μετατρέπεται σε εκτελεστικό όργανο, ικανό να υπολογίσει, να προβλέψει, να επιτεθεί – χωρίς να θέτει το ερώτημα του “πρέπει;”.
Ηθικά, αυτό γεννά έναν επικίνδυνο παραλογισμό: Μια απόφαση μπορεί να είναι τεχνικά άρτια, αλλά ηθικά ανεξέλεγκτη.
Όταν λείπει το ηθικό υποκείμενο – όχι απλώς εκείνος που “πατά το κουμπί”, αλλά εκείνος που αναλαμβάνει την ευθύνη της απόφασης – τότε η ηθική γίνεται διακοσμητική έννοια. Αντιθέτως, ένα ανθρώπινο υποκείμενο μπορεί να βιώνει ηθικό δίλημμα, να αμφιβάλλει, να διστάζει η Τεχνητή Νοημοσύνη, απλώς εκτελεί.
Η ουσία δε βρίσκεται στο αν “μπορεί” ένα σύστημα Τεχνητής Νοημοσύνης να πράξει βίαια, αλλά στο ποιος την προγραμματίζει να το κάνει – και με ποιον σκοπό. Όσο περισσότερο μετατοπίζεται η απόφαση από τον άνθρωπο στη μηχανή, τόσο περισσότερο ηθικοί κώδικες μετατρέπονται σε λογιστικά διαγράμματα. Και τότε η ερώτηση δεν είναι αν η τεχνητή έχει ηθική, αλλά αν εμείς την έχουμε, όταν την κατασκευάζουμε.
Η Τεχνητή Νοημοσύνη δε γνωρίζει ηθική – δεν μπορεί να αγαπήσει, να μετανιώσει ή να επιλέξει με βάση αξίες. Ό,τι πράττει, το πράττει επειδή της το επιτρέψαμε ή της το ζητήσαμε. Η ανθρώπινη νοημοσύνη, αντίθετα, κουβαλά το βάρος της κρίσης, της ευθύνης και της ηθικής συνείδησης.
Αν η Τεχνητή Νοημοσύνη γίνει καθρέφτης μας, το ερώτημα δεν είναι τι θα κάνει εκείνη, αλλά τι αποκαλύπτει για εμάς αυτό που της ζητάμε να κάνει.
Η ηθική μάλλον παραμένει ανθρώπινο καθήκον – και η πιο επικίνδυνη απώλειά της δε θα είναι ποτέ τεχνολογική.