Δευτέρα 27 Φεβρουαρίου 2012

Ηθική των Ρομπότ - Πρέπει να φοβόμαστε τις μηχανες; Μέρος 2ο

Η ηθική των μηχανών είναι πολύ σοβαρό θέμα.Από την (προφητική;) ταινία I Robot.
Εδώ θα θυμηθείτε το πρώτο μέρος της συνέντευξης του καθηγητή Πατρικ Λιν του California Polytechnic State University

Ακολουθεί το δεύτερο μέρος:
 
Δημοσιογράφος: Πώς μελετούν οι ερευνητές την ηθική των ρομπότ; Μπορείτε να παρουσιάσετε πειράματα από τον ακαδημαϊκό  χώρο;
PL: To να σχεδιάσουμε ένα σενάριο είναι μόνο μία εφαρμογή, σε μια τεράστια εργαλειοθήκη που έχουν οι επιστήμονες στον τομέα της εφαρμοσμένης ηθικής. Για παράδειγμα, οι προσπάθειες για την καταπολέμηση της τρομοκρατίας περιλαμβάνουν- φαντάζομαι - σενάρια «τι θα συμβεί εάν…».  Μπορεί να μην έχουν ακόμη εκδηλωθεί φαινόμενα επανάστασης των ρομπότ και ελπίζουμε ότι δεν πρόκειται ποτέ να εκδηλωθούν. Παρ’ όλα αυτά, ο σχεδιασμός τέτοιου είδους σεναρίων είναι συχνά χρήσιμος και διδακτικός. Δεν έχει σημασία πόσο μικρές είναι οι πιθανότητες. Tο να φανταζόμαστε όμως, πως θα είναι το μέλλον, αναγκάζει τους επιστήμονες να προσπαθούν να μην εγκαταλείψουν  την πραγματική επιστήμη ή αλλιώς τι είναι εφικτό να συμβεί και τι πιθανό να συμβεί. Κάποια σενάρια, όπως ένα ρομπότ που αποκτά παγκόσμια εξουσία ή το σενάριο «Terminator», είναι τόσο μακρινό, αλλά ακόμη κι αν είναι πιθανό, είναι δύσκολο να δικαιολογήσει την επένδυση τόσο μεγάλης  έρευνας για τα θέματα αυτά σήμερα, στο παρόν.
Ο Winston Churchill είπε σύμφωνα με τις κάποιες πηγές: “Είναι λάθος να προσπαθήσουμε να κοιτάξουμε πάρα πολύ μακριά, πάρα πολύ μπροστά. Η αλυσίδα του πεπρωμένου μπορεί να πιαστεί σε έναν μόνο κρίκο τη φορά.”
Άλλα εργαλεία περιλαμβάνουν την ιστορική αναδρομή στην επιστημονική φαντασία ή  στη βιβλιογραφία, έτσι ώστε να εντοπίσουν την προστιθέμενη αξία και τις ανησυχίες της κοινωνίας σχετικά με μια συγκεκριμένη τεχνολογία, όπως τη ρομποτική, και αυτό σημαίνει συνεργασία και με άλλους ακαδημαϊκούς πέρα από τους φιλοσόφους. Και φυσικά πρέπει να συνεργαστούμε στενά με τους επιστήμονες που στηρίζονται στην επιστήμη και την τεχνολογία. Αυτό θα μπορούσε να οδηγήσει σε ενδιαφέροντα πειράματα, για παράδειγμα, να προγραμματίσουμε ένα ρομπότ να ακολουθήσει μια συγκεκριμένη ηθική θεωρία ή ένα σύνολο ηθικών κανόνων, για να δουν πώς αποδίδει σε σχέση με άλλα ρομπότ που ακολουθούν άλλες ηθικές θεωρίες.
Δημοσιογράφος: Είναι δυνατός ο προγραμματισμός ηθικών θεωριών σ’ ένα ρομπότ; Συμφωνείτε με αυτή την προσέγγιση;
PL: Αυτό θα μπορούσε να λειτουργήσει για τα ρομπότ που χρησιμοποιούνται για συγκεκριμένα καθήκοντα , αλλά είναι δύσκολο να προβλέψουμε πώς αυτό θα ήταν εφαρμόσιμο. Το να εκτελέσει, ένα ρομπότ ένα ευρύ φάσμα λειτουργιών, σήμερα ή στο εγγύς μέλλον, εξαρτάται από πάρα πολλές μεταβλητές. Μεγαλύτερη βάση δίνουμε στο τι είναι ηθικό για ένα ρομπότ σ’ έναν ιδεολογικά διχασμένο κόσμο.Μπορεί ωστόσο να απαιτηθεί πολλή επιπλέον γνώση την οποία οι μηχανές δεν μπορούν να κατανοήσουν, τουλάχιστον στο άμεσο μέλλον. Με άλλα λόγια, τι είναι ηθικό είναι απλά "πολύ περίπλοκο" να χωρέσει σ' ένα σύνολο κανόνων που μπορούμε να προγραμματίσουμε. Ακόμη και μια «από κάτω προς τα πάνω» προσέγγιση όπως το να αφήσουμε το ρομπότ εξερευνήσει τον κόσμο και να διδαχθούμε από τις δράσεις και τα λάθη του, έχει τον κίνδυνο να μην καταλάβει αρκετά το ρομπότ το τι είναι η ηθική, ώστε να το αφήσουμε απολύτως ελεύθερο ως υπεύθυνο ον πάνω στον κόσμο.
Άλλα ρομπότ επιφορτισμένα με συγκεκριμένες θέσεις , όπως την κατασκευή αυτοκινήτων ή την διδασκαλία στην τάξη, θα μπορούσεαν ασφαλώς να προγραμματιστούν για να αποφύγουμε το χειρότερο προφανές  σενάριο, όπως την σωματική βλάβη ενός ανθρώπου. Ο Wendell Wallach στο Yale και ο Colin Allen στο Πανεπιστήμιο της Ιντιάνα, το Μπλούμινγκτον, πραγματεύονται ακριβώς τα θέματα αυτά στα τελευταία βιβλία τους.
Δημοσιογράφος: Πιστεύετε ότι μπορούμε να εφαρμόσουμε πρόγραμμα συναισθηματικής νοημοσύνης στην τεχνητή νοημοσύνη;
PL: Φαίνεται ότι είμαστε κοντά στη δημιουργία ρομπότ που να παρουσιάζουν πειστικά συναισθήματα και συμπάθεια, όπως να εντοπίζουν και να αντιμετωπίζουν συναισθήματα όταν  συναντούν ανθρώπους καθώς και να προκαλούν ορισμένα συναισθήματα. Αυτό όμως είναι πολύ διαφορετικό από το να δημιουργήσουμε ρομπότ που να αισθάνονται αληθινά συναισθήματα, για την ακρίβεια δεν είμαστε καν κοντά σε αυτό. Αυτό απαιτεί μια πιο ολοκληρωμένη νοητική θεωρία από ό,τι έχουμε σήμερα. Πιθανώς να λέγεται συνείδηση αλλά εξακολουθούμε να γνωρίζουμε ελάχιστα για το πώς λειτουργεί το μυαλό.
Ακόμη κι αν θα μπορούσαμε να κατασκευάσουμε ρομπότ που να βιώνουν συναισθήματα, πώς θα ελέγξουμε ότι η εμπειρία τους από τον πόνο ή την ευτυχία είναι ποιοτικώς παρόμοιες με τις δικές μας; Στη φιλοσοφία, αυτό ονομάζεται  φιλοσοφικό «πρόβληµα του άλλου νου» (other minds), όπου εν συντομία υποστηρίζει πως δεν μπορούμε να αποδείξουμε ότι υπάρχουν άλλοι εγκέφαλοι που μπορούν να σκέφτονται λογικά, και (ή)  πως η εμπειρία μας από ένα χρώμα (π.χ. το κόκκινο) δεν είναι καθόλου ίδια με οποιουδήποτε άλλου. Αλλά ίσως αυτό να μην έχει τόσο μεγάλη σημασία, όσο η εμπειρία από το κόκκινο να είναι λειτουργικά ισοδύναμη με του άλλου, φτάνει να εννοούμε το ίδιο πράγμα όταν λέμε "κόκκινο". Μπορεί αυτό να ισχύει και για τα ρομπότ, και ίσως δεν έχει τόση σημασία  αν ένα ρομπότ στην πραγματικότητα αισθάνεται ευτυχία ή φόβο, όσο το να συμπεριφέρεται λειτουργικά σαν να το έκανε.
Δημοσιογράφος:Πώς νομίζετε πως θα εξελιχθούν τα πράγματα στο μέλλον; Πιστεύετε πως τα νέα ρομπότ θα έχουν ενσωματωμένους στην κατασκευή τους κάποιους ηθικούς κανόνες;
PL: Δεν έχω ιδέα, και από τη στιγμή που δεν είναι ακόμα δυνατό, αλλά θα ήταν στο μακρινό μέλλον, ίσως κανείς σήμερα δεν μπορεί πραγματικά να προβλέψει. Ένα πράγμα φαίνεται να είναι βέβαιο, ότι το μέλλον δεν θα είναι έτσι όπως το έχουμε φανταστεί. Θα μπορούσε να ισχυριστεί κάποιος πως η ρομποτική αυτονομία δεν είναι αρκετά αξιόπιστη και έτσι οι θεωρίες της  αυτόματης οδήγησης αυτοκινήτων (όπως και των ιπτάμενων αυτοκινήτων που φανταστήκαμε μέσω του κινηματογράφου πριν από μισό αιώνα) δεν γίνονται ποτέ πράξη. Αλλά εάν κάποτε υποχρεωθούμε να κατασκευάσουμε ρομπότ που θα απαιτείτο να συμπεριφέρονται ηθικά - για παράδειγμα, επειδή θα ζουν μέσα στην κοινωνία και θα αλληλεπιδρούν με τα παιδιά ή τους ηλικιωμένους ανθρώπους, - τότε, ναι, ελπίζω ότι υπάρχει κάτι που μπορούμε να πούμε πως θα μας διασφαλίσει ό,τι και να συμβεί. Ο Ron Arkin στο Πανεπιστήμιο της Georgia Tech δουλεύει σε κάτι τέτοιο, με την εργασία του της «ηθικής διακυβέρνησης» που, όπως ο οδηγός ενός αυτοκινήτου, θέτει τα όρια της συμπεριφοράς ενός ρομπότ, περιορίζοντάς το.
 
Δημοσιογράφος: Τότε, για ποιο λόγο μελετάμε την ρομποτική ηθική;
PL: Επειδή η τεχνολογία έχει πραγματικό αντίκτυπο στη ζωή μας και τον κόσμο, και πώς αν αναπτύξουμε και χρησιμοποιήσουμε αυτά τα εργαλεία, θα έχουμε έμπρακτα αποτελέσματα, κάποια θετικά και ορισμένες φορές αρνητικά. Σκεφτείτε όλα τα μεγάλα οφέλη που έχουμε από το Διαδίκτυο - αλλά επίσης να σκεφτούμε και τα αρνητικά, όπως την παρενόχληση στον κυβερνοχώρο που οδήγησε σε θανάτους στον πραγματικό κόσμο. Αν μπορούμε να μειώσουμε ορισμένες από αυτές τις αρνητικές επιπτώσεις, σκεπτόμενοι το μέλλον ως προς την κοινωνική και τεχνολογική διάσταση που θα προκύψει, θα οδηγήσει σε λίγο καλύτερες συνθήκες από αυτές που  βρήκαμε, και αυτά είναι όσα οποιοσδήποτε από εμάς μπορεί πραγματικά να κάνει .
Προσωπικά, ενδιαφέρομαι για ηθική ρομπότ γιατί τα ρομπότ κεντρίζουν τη φαντασία, όπως ανέφερα στην αρχή. Όπως το θέτει και ο Peter Singer , είναι "και γαμώ". Και ακόμα κι αν πήγα να σπουδάσω φιλοσοφία στο κολλεγιο και στα μεταπτυχιακά, έχω ενδιαφέρονται για την επιστήμη και την τεχνολογία ήδη από όσο μπορώ να θυμηθώ. Προγραμμάτιζα ηλεκτρονικούς υπολογιστές πριν γίνω έφηβος - το οποίο δεν ακούγεται σαν κάτι μεγάλο αυτές τις μέρες, αλλά ήταν ασυνήθιστο πριν από 30 χρόνια. Ο Atari 400 ή TI-99 4 / Α ή ο Apple IIe μπορεί να μην είχαν την επεξεργαστική ισχύ ούτε ενός συνηθισμένου σύγχρονου κινητού τηλεφώνου, αλλά είχαν προσωπικότητα και υπόσχονταν ένα είδος ευχάριστης ανακάλυψης που μόνο τα ρομπότ μπορούσαν να προσφέρουν.

1 σχόλιο:

Ανώνυμος είπε...

Εξαιρεετική δημοσίευση