Σύνταξη άρθρου: Ευθύμης Κυρίκος

Επιμέλεια άρθρου: Κωνσταντίνος Ουρανός

Αυτόνομος (αυτός νόμος) σημαίνει «ο δικός μου νόμος», δηλαδή οι απόψεις και η φιλοσοφία ενός ανθρώπου. Τεχνολογικά σημαίνει μια συσκευή που μπορεί να εκτελεί μια αλληλουχία ενεργειών από μόνη, όπως λόγου χάρη ένα πρόγραμμα στον υπολογιστή.

Αυτονομία ανθρώπου

Ο καθηγητής – νευροεπιστήμονας Κάι Μύλλερ (Kai Müller) όρισε ένα μοντέλο εξέλιξης της προσωπικής αυτονομίας του ανθρώπου. Κατά τον καθηγητή η εξέλιξη περνά από τρία στάδια:

Την ανάληψη ευθυνών από το άτομο που το οδηγεί στο να αξιολογεί τις πράξεις του και συνολικά να παγιώνεται μια αντίληψη και μια κανονικότητα στη κοινωνία.

  • Την εξέλιξη αυτής της κανονικότητας, όταν εμφανιστούν νέα διαφορετικής κουλτούρας άτομα με διαφορετικό τρόπο σκέψης. Αυτό μπορεί να εμφανιστεί είτε ως αποδοχής μιας εναλλακτικής κανονικότητας είτε μέσω εξέλιξης της υπάρχουσας. Επακόλουθα ένα τέτοιο σενάριο οδηγεί την κοινωνία στη ρύθμιση μέσω νόμων που θέτουν τα όρια της αυτονομίας του κάθε ατόμου σε αυτήν.

  • Η εξέλιξη ή αλλαγή της κανονικότητας οδηγεί στην αλλαγή των νόμων που καθορίζουν τα πλαίσια για τη δημιουργία περισσότερης ελευθερίας με τα νέα δεδομένα της εξελιγμένης κοινωνίας.

Η ανάπτυξη της προσωπικής αυτονομίας περνά μέσα από τη δημιουργία ενός προσωπικού συστήματος αξιών σε ισορροπία με τα αντίστοιχα αξιακά συστήματα των άλλων ανθρώπων καθώς και της κοινωνίας ως συνόλου. Η διαδικασία με την οποία επιτυγχάνεται αυτό ακολουθεί μια προγραμματιστική έννοια που ονομάζεται κληρονομικότητα. Σύμφωνα με την έννοια αυτή το προσωπικό μοντέλο εξέλιξης ενός ανθρώπου, είναι αυτός να κληρονομεί στοιχεία από τα καθιερωμένα κοινωνικά πρότυπα που επικρατούν γύρω του καθώς και από τους άλλους ανθρώπους που τον επηρεάζουν ως άτομο άμεσα στη ζωή του.

Ρομποτική και Ηθική

Η ηθική στην επιστήμη είναι ένα από τα σημαντικότερα ζητήματα που επηρεάζουν μια τεχνολογικά και επιστημονικά προηγμένη κοινωνία σαν τη δική μας. Επιστήμες, όπως η πυρηνική φυσική, η γενετική και η επιστήμες υπολογιστών έχουν ήδη βρεθεί στο επίκεντρο των συζητήσεων, που αφορούν στις ηθικές επιπτώσεις της παρουσίας τους στην κοινωνία λόγω του ρόλου που έχουν παίξει σε δραματικά γεγονότα της σύγχρονης ιστορίας (Χιροσίμα, κλιματική αλλαγή και άλλα). Η ρομποτική εξελίσσεται ραγδαία και ενσωματώνεται στη καθημερινότητά μας και, όπως κάθε τι καινούριο, συνοδεύεται από μια πληθώρα πρακτικών και ηθικών προβλημάτων, που απαιτούν επίλυση. Ήδη πολλές κυβερνήσεις και οργανισμοί έχουν θέσει υπό την κρίση της ηθικής την παρουσία και τη χρήση των ρομπότ και διεξάγουν έρευνες σχετικά με ένα πλαίσιο νομοθεσίας για τη χρήση και τη διαχείρισή τους στο παρόν και, πολύ περισσότερο, στο μέλλον.

Ποια είναι ωστόσο τα ηθικά διλήμματα που γεννά η τεχνητή νοημοσύνη;

Ανεργία

Καθώς ανακαλύπτουμε τρόπους να εκτελεστούν εργασίες αυτόματα, δημιουργούμε χώρο για επαγγέλματα με πιο πολύπλοκους ρόλουςΩστόσο, η μετάβαση δεν θα είναι «αναίμακτη» καθώς σήμερα ένα πολύ μεγάλο ποσοστό των ανθρώπων εργάζεται σε επαγγέλματα που τα επόμενα χρόνια ενδεχομένως να πληγούν από την εκτεταμένη χρήση εφαρμογών τεχνητής νοημοσύνης. Για παράδειγμα, η έρευνα πάνω στα αυτόνομα οχήματα μπορεί να πλήξει τον κλάδο των οδηγών ακόμα και μέσα στην επόμενη δεκαετία. Το ίδιο σενάριο είναι πιθανό και για εργαζόμενους σε γραμμές παραγωγής εργοστασίων. Στον αντίποδα βέβαια μπορεί να ισχυριστεί κάποιος πως, αν ένα αυτόνομο όχημα λειτουργεί σωστά, θα μειωθούν οι κίνδυνοι ατυχημάτων λόγω ανθρώπινου λάθους ή κούρασης του οδηγού. Είναι ωστόσο ικανά αυτά τα πλεονεκτήματα να δικαιολογήσουν τις απώλειες;

Εδώ υπεισέρχονται και άλλοι κοινωνικοί και οικονομικοί παράγοντες καθώς, αν η κοινωνία μας απαιτεί λιγότερη εργασία λόγω αυτοματοποίησης, θα πρέπει και τα αντίστοιχα οικονομικά μοντέλα να αλλάξουν και να προσαρμοστούν στις ανάγκες μιας τέτοιας κοινωνίας. Σε αυτό το πιθανώς ευνοϊκό σενάριο ο άνθρωπος θα έχει λιγότερη ανάγκη για εργασία και περισσότερο χρόνο να αφοσιωθεί σε εθελοντικές δράσεις, ταξίδια και δραστηριότητες.

Ανισότητα

Η οικονομία μας βασίζεται στη μισθωτή εργασία και στη προσφορά της στην οικονομία. Σήμερα οι περισσότερες εταιρείες στον πλανήτη βασίζονται στους εργαζομένους τους για τη λειτουργία τους και την παραγωγή των προϊόντων τους. Η χρήση τεχνητής νοημοσύνης ωστόσο, δίνει τη δυνατότητα στις εταιρείες να μειώσουν δραστικά το κόστος μισθών, γιατί δεν θα χρειάζονται πλέον τον ίδιο αριθμό εργαζομένων. Αυτό έχει ως επακόλουθο το γεγονός πως όλο και λιγότεροι θα έχουν πρόσβαση στην εργασία και εισόδημα. Ταυτόχρονα όσοι έχουν κυριότητα σε μηχανές τεχνητής νοημοσύνης θα είναι και οι πλούσιοι. Ήδη από το 2014 οι τρεις μεγαλύτερες εταιρίες στο Ντιτρόιτ (Detroit) των ΗΠΑ και οι τρεις μεγαλύτερες εταιρίες στην Καλιφόρνια (California) είχαν ίδια κέρδη με τη μόνη διαφορά πως στη Καλιφόρνια απασχολούσαν 10 φορές λιγότερο προσωπικό καθώς υιοθέτησαν για τις εργασίες τους ρομποτικές μηχανές.

Ρατσισμός

Παρόλο που ακόμα και σήμερα η τεχνητή νοημοσύνη είναι ικανή να εκτελεί υπολογισμούς πολύ ταχύτερα από τον άνθρωπο, δεν μπορούμε να την εμπιστευτούμε ως προς τα αποτελέσματά της χαρακτηρίζοντάς τα ως σωστά ή ουδέτερα. Για παράδειγμα, υπάρχουν σήμερα προγράμματα τεχνητής νοημοσύνης που η αστυνομία τους δίνει στοιχεία από τόπους εγκλημάτων και φωτογραφίες από πιθανούς εγκληματίες που υπάρχουν στα αρχεία της. Τα προγράμματα αυτά μέσω ενός αλγορίθμου υπολογίζουν και καταλήγουν στον πιθανό ένοχο. Έχει αποδειχθεί πως αυτοί οι αλγόριθμοι τείνουν να έχουν μια λανθασμένη ευαισθησία προς τους ανθρώπους με πιο σκούρα επιδερμίδα, σε περίπτωση που τα δεδομένα είναι αρκετά χαοτικά και όχι τόσο ξεκάθαρα. Τέτοια παραδείγματα, που προκύπτουν από λανθασμένους υπολογισμούς των αλγορίθμων δεν έχουν επιλυθεί και έτσι υπάρχει καχυποψία και αμφιβολία προς την ορθότητα πολλών αποτελεσμάτων. Δεν πρέπει να ξεχνάμε πως η τεχνητή νοημοσύνη αναπτύσσεται από ανθρώπους με συγκεκριμένες απόψεις και προκαταλήψεις. Γι’ αυτό είναι απαραίτητη η θέσπιση κανόνων που διορθώνουν τέτοιες παραβατικές συμπεριφορές από ανθρώπους.

Λάθη τεχνητής νοημοσύνης

Πώς μπορούμε να προστατευθούμε από λάθη ενός προγράμματος; Η τεχνητή νοημοσύνη αναπτύσσεται από αλγορίθμους μηχανικής μάθησης. Κατά τη φάση της μάθησης η μηχανή λαμβάνει πραγματικά δεδομένα, εκτελεί υπολογισμούς και αναπροσαρμόζει τον αλγόριθμό της για να μπορεί να ακολουθήσει σωστά τα δεδομένα που έλαβε. Τι θα συμβεί άραγε, αν αυτά τα δεδομένα δεν είναι απολύτως ακριβή;

Στη πραγματικότητα καμιά μηχανή τεχνητής νοημοσύνης, κατά τη φάση της εκμάθησης, δεν μπορεί να καλύψει όλες τις πιθανές περιπτώσεις που μπορεί να συναντήσει, όπως άλλωστε και ένας άνθρωπος. Το αποτέλεσμα είναι πως στις περιπτώσεις που συναντά κάτι καινούριο, η μηχανή δρα σαν να βρίσκεται σε φάση εκμάθησης και δίνει λανθασμένα αποτελέσματα ή στη καλύτερη περίπτωση όχι αρκετά κοντά στη πραγματικότητα. Τα λανθασμένα αποτελέσματα ενός προγράμματος μπορεί να μην επηρεάζουν σημαντικά κάποια λειτουργία, μπορεί ωστόσο να προκαλέσουν και ανεπανόρθωτες καταστροφές. Ας σκεφτεί κάποιος μια ρομποτική μηχανή που εκτελεί μικροχειρουργικές επεμβάσεις ή ένα σύστημα αυτόματης οδήγησης ενός διαστημικού σκάφους.

Ασφάλεια

Όσο πιο ισχυρή είναι μια τεχνολογία τόσο πιο επικίνδυνη μπορεί να γίνει. Εκτός από ισχυρά όπλα που υπάρχουν σήμερα, ισχυρά συστήματα τεχνητής νοημοσύνης μπορούν να δημιουργήσουν τεράστιες ζημιές, αν χρησιμοποιηθούν λανθασμένα ή κακόβουλα.

Κακόβουλη νοημοσύνη

Πώς μπορούμε να προστατευτούμε από κακόβουλες ενέργειες της ίδιας της νοημοσύνης; Αν σκεφτούμε πως η τεχνητή νοημοσύνη θα μπορεί να προσομοιώνει την ανθρώπινη, θα πρέπει να εξετάσουμε και τη περίπτωση στην οποία η νοημοσύνη θα στρέφεται εναντίον μιας ομάδας με τον ίδιο τρόπο που ένας άνθρωπος θα μπορούσε να το κάνει, όπως απεικονίζεται σε πολλές ταινίες φαντασίας.

Επιπλέον, ένα γενικότερο χαρακτηριστικό ενός προγράμματος είναι η έλλειψη κατανόησης της γενικότερης κατάστασης γύρω του. Ένα πρόγραμμα είναι κατασκευασμένο να εκτελεί μια και μόνο μια λειτουργία έχοντας έλλειψη κατανόησης του πώς λειτουργούν τα πάντα γύρω του εκτός του εαυτού του, όπως δηλαδή θα έκανε ένα γρανάζι μιας μηχανής. Η ανθρώπινη νοημοσύνη χρησιμοποιεί αξιακούς και γνωστικούς κανόνες για να καταλήξει σε αποτελέσματα, διότι γνωρίζει το περιβάλλον στο οποίο βρίσκεται. Ένα πρόγραμμα δεν έχει αναπτύξει τέτοιες δυνατότητες με αποτέλεσμα να υπάρχουν πιθανότητες να οδηγηθεί σε λάθος λύσεις. Ένα παράδειγμα είναι το εξής: Έστω ότι μια μελλοντική μηχανή τεχνητής νοημοσύνης χρησιμοποιηθεί για να βρει λύση πάνω στην εξάλειψη μιας ασθένειας από τον άνθρωπο. Μετά από πολλούς υπολογισμούς το πρόγραμμα αποφασίζει πως για να εξαφανιστεί η ασθένεια πρέπει να πεθάνει το σύνολο του πληθυσμού. Με αυτό το αποτέλεσμα ο υπολογιστής θα έχει καταφέρει τον σκοπό του όχι όμως με το τρόπο που ένας άνθρωπος θα το έκανε.

Μοναδικότητα

Το είδος μας επικράτησε, όχι για τα σωματικά του προσόντα, αλλά γιατί ήταν ικανό να χρησιμοποιήσει το μυαλό του και να κατασκευάσει εργαλεία για να ελέγχει τα υπόλοιπα είδη στον πλανήτη. Σε μια μελλοντική κατάσταση στην οποία οι μηχανές θα μπορούν να σκεφτούν αποδοτικότερα, γρηγορότερα και να προβλέπουν καταστάσεις πιο αξιόπιστα για τον άνθρωπο, θα έχουν αναπτύξει και τη νοημοσύνη να προστατεύονται από αυτόν και να λειτουργούν εναντίον του. Αυτήν την κατάσταση οι επιστήμονες την ονομάζουν μοναδικότητα, και αποτελεί το σημείο στο οποίο οι μηχανές θα έχουν νοητικό πλεονέκτημα έναντι του ανθρώπου.

Σχεδιάζοντας νόμους ρομποτικής ηθικής

Το 1942 ο συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμοφ πρότεινε τους τρεις νόμους της ρομποτικής

  • Ένα ρομπότ δεν πρέπει να μπορεί να τραυματίσει ανθρώπινο ον ή να επιτρέψει να γίνει κακό σε άνθρωπο.

  • Κάθε ρομπότ πρέπει να υπακούει στις εντολές του ανθρώπου εκτός και αν έρχονται σε αντίθεση με το πρώτο νόμο

  • Ένα ρομπότ πρέπει να προστατεύει τον εαυτό του εκτός αν έρχεται σε αντίθεση με τους δύο παραπάνω νόμους

Σήμερα οι επιστήμονες που ασχολούνται με τα θέματα ηθικής έχουν προτείνει κάποιες θέσεις που ορίζουν τη σχέση των ρομποτικών μηχανών με την ανθρωπότητα. Σύμφωνα με αυτές τις θέσεις η επιστήμη χωρίζει τη τεχνητή νοημοσύνη σε τρεις κατηγορίες:

Νοημοσύνη χωρίς ηθική, η οποία αναφέρεται στις ενέργειες ενός ρομπότ με καθαρά τεχνικό χαρακτήρα (εργασίες, αυτόνομη κίνηση).

Νοημοσύνη με περιορισμένη ηθική, η οποία περιλαμβάνει έννοιες όπως «καλό» , «κακό», και χρησιμοποιείται σε μηχανές που έχουν σκοπό να βοηθήσουν την ανθρωπότητα.

Νοημοσύνη με αυξημένη ηθική, η οποία περιλαμβάνει ερωτήματα σχετικά με κοινωνικές ανισότητες, οικονομικά θέματα, κοινωνικά και ιατρικά θέματα τα οποία αποτελούν θέματα μελέτης ακόμα και από τον άνθρωπο.

Δικαιώματα των ρομπότ

Ενώ οι νευροεπιστήμονες εργάζονται ακόμα για να ξεκλειδώσουν τα μυστικά της συνειδητής εμπειρίας, έχουμε γνώση και καταλαβαίνουμε περισσότερα για τους βασικούς μηχανισμούς ανταμοιβής. Τους μηχανισμούς αυτούς τους μοιραζόμαστε ακόμη και με απλά ζώα και οικοδομούμε παρόμοιους μηχανισμούς ανταμοιβής σε συστήματα τεχνητής νοημοσύνης. Για παράδειγμα, η μάθηση ενός ρομπότ είναι παρόμοια με την εκπαίδευση ενός σκύλου: η βελτιωμένη απόδοση ενισχύεται με μια εικονική ανταμοιβή. Αυτή τη στιγμή, αυτά τα συστήματα είναι αρκετά απλοϊκά, αλλά εξελίσσονται σε πιο περίπλοκα και ζωντανά. Επιπλέον, οι λεγόμενοι γενετικοί αλγόριθμοι λειτουργούν με τη δημιουργία πολλών στιγμιότυπων ενός συστήματος ταυτόχρονα, εκ των οποίων μόνο οι πιο επιτυχημένες «επιβιώνουν» και συνδυάζονται για να αποτελέσουν την επόμενη γενιά νοημοσύνης.

Αφού θεωρήσουμε τις μηχανές ως οντότητες που μπορούν να αντιληφθούν, να αισθάνονται και να ενεργούν, δεν είναι ένα τεράστιο άλμα για να αναλογιστεί κανείς το νομικό τους καθεστώς. Πρέπει να αντιμετωπίζονται σαν ζώα συγκρίσιμης νοημοσύνης; Θα εξετάσουμε, φέρ’ ειπείν, τον «πόνο» των μηχανών ως «συναίσθημα»;

Μελλοντική εξέλιξη

Η ανάπτυξη και κατάκτηση της γενικής τεχνητής νοημοσύνης φέρνει στο προσκήνιο μια σειρά δύσκολων ηθικών ζητημάτων που απαιτούν λύση και δεν έχουν και ξεκάθαρη απάντηση. Είναι πρακτικά αδύνατον να μπορούμε να προβλέψουμε την εξέλιξη της της κοινωνίας με τη συμβολή των μηχανών, συνυπολογίζοντας και τον απροσδιόριστο ανθρώπινο παράγοντα. Είναι όμως αυτός λόγος ανησυχίας;

Κατά την άποψη του γράφοντος χρειάζεται να ανησυχούμε μεν ως ανθρωπότητα αλλά όχι να φοβόμαστε. Σίγουρα όταν θα παρουσιαστεί η ανάγκη θα δημιουργηθεί ένα πλαίσιο για να καθορίζεται η συμπεριφορά των μηχανών.

Είναι επικίνδυνες οι μηχανές που μπορούν να αναπτύξουν γενική τεχνητή νοημοσύνη;

Αυτό το ερώτημα είναι ισοδύναμο με το αν «είναι δυνατόν μια αντιγραφή να ξεπεράσει το πρωτότυπο;» καθότι από τεχνικής άποψης η τεχνητή νοημοσύνη είναι ένα κατασκεύασμα που μιμείται την ανθρώπινη σκέψη. Φαινομενικά κάποιος μπορεί να απαντήσει πως δεν είναι δυνατόν. Ωστόσο πρέπει να συνυπολογιστεί η ικανότητα μιας υπολογιστικής μηχανής να εκτελεί πολύ περισσότερους υπολογισμούς από τον ανθρώπινο εγκέφαλο, γεγονός που δίνει διαφορετικές ιδιότητες στο τύπο νοημοσύνης που μπορεί να αναπτυχθεί.

Ένα επιπλέον επιχείρημα είναι πως η έρευνα πάνω στη τεχνητή νοημοσύνη ενδιαφέρει κυρίως για τα οικονομικά της οφέλη. Σε ένα πολύ μακρινό μέλλον μπορεί ο άνθρωπος να έχει αναπτύξει μηχανές που να πλησιάζουν εντυπωσιακά τις ανθρώπινες δυνατότητες, κάτι που ωστόσο δεν προσφέρει πρακτικά στην οικονομία. Οι εταιρείες ενδιαφέρονται για νοημοσύνη ικανή να εκτελεί μια εργασία αποδοτικά και γρήγορα. Επομένως ένας τύπος νοημοσύνης ικανός να μιμηθεί 100% την ανθρώπινη συμπεριφορά δεν έχει χρηστικότητα. Εικάζω πως, όταν η τεχνολογία έχει εξελιχθεί στο βαθμό που τα ρομπότ θα μπορούν να αντικαταστήσουν τον εργαζόμενο, η έρευνα θα καταλαγιάσει και η εξέλιξη θα είναι αργή καθώς δεν θα έχει μεγάλο οικονομικό ενδιαφέρον.

Ποιοι κίνδυνοι ελλοχεύουν στην ανάπτυξη της γενικής τεχνητής νοημοσύνης;

Εδώ κατά τη γνώμη του γράφοντος το πρόβλημα είναι περισσότερο ανθρώπινης ηθικής παρά της τεχνητής νοημοσύνης. Το πρώτο σενάριο παρουσιάζει έναν κόσμο όπου ο άνθρωπος θα έχει απαλλαγεί από τη βαριά εργασία και θα έχει χρόνο για πνευματικές εργασίες και ξεκούραση. Ως επακόλουθο θα έχει μεγαλύτερο προσδόκιμο όριο ζωής λόγω καλύτερης ποιότητας ζωής. Επιπλέον θα λυθούν προβλήματα έλλειψης εργατικού δυναμικού. Στο δεύτερο σενάριο η τεχνητή νοημοσύνη εξελίσσεται αλλά δεν είναι προσβάσιμη για όλους παρά μόνο για κράτη και εταιρείες, ώστε να αυξήσουν την οικονομική και πολιτική τους δύναμη. Από την ιστορική εμπειρία το πιθανότερο σενάριο είναι ένα μεταξύ των δύο παραπάνω.

Επίλογος

Ορισμένα ηθικά ζητήματα αφορούν στην ανάσχεση της τεχνολογικής αυτής εξέλιξης, ορισμένα άλλα διατυπώνουν απλά τα αρνητικά αποτελέσματα του πράγματος. Ενώ εξετάζουμε αυτούς τους κινδύνους, πρέπει επίσης να έχουμε κατά νου ότι, συνολικά, αυτή η τεχνολογική πρόοδος σημαίνει καλύτερη ζωή για όλους. Η τεχνητή νοημοσύνη έχει τεράστιες δυνατότητες και η υπεύθυνη εφαρμογή της εξαρτάται από εμάς.

Πηγές

  • Russell and Norvig, 2005. Τεχνητή Νοημοσύνη. Μια σύγχρονη προσέγγιση. Εκδόσεις Κλειδάριθμος. 

  • Haugeland J., 1992. Τεχνητή Νοημοσύνη. Σχεδιάζοντας τη νόηση: Από την υπολογιστική θεωρία στις σύγχρονες ευφυείς μηχανές. Εκδόσεις Κάτοπτρο.

  • Möller ., 2012. The Global Model of Constitutional Rights, . Oxford Constitutional Theory. Publisher: Oxford University Press.

  • Bostrom, Ν. and Yudkowsky, Ε., 2014. The Cambridge Handbook of Artificial Intelligence, pp. 316 – 334. Publisher: Cambridge University Press

  • Veruggio, G., 2006. The EURON Roboethics Roadmap. Scuola di Robotica Genova, Italy

  • Dignum, V., 2018. Ethics in artificial intelligence: introduction to the special issue. Ethics Inf Technol 20, 1–3 .https://doi.org/10.1007/s10676-018-9450-z

Ηλ.Ταχ.: [email protected]
Ευθύμης Κυρίκος
Ηλεκτρολόγος Μηχανικός Ειδικός Αυτοματισμού και Ρομποτικής