Σάββατο 30 Ιουλίου 2011

Ηθική των Ρομπότ - Πρέπει να φοβόμαστε τις μηχανες; Μέρος 1ο

 Θα παραθέτω στο blog σειρά εισηγήσεων και άρθρων με θέμα την Τεχνητή Νοημοσύνη και την Ηθική των Μηχανών.Ακολουθεί  απόσπασμα από τη συνέντευξη του καθηγητή Πατρικ Λιν του California Polytechnic State University που είναι ένας από τους κορυφαίους ειδικούς  για ηθικά ζητήματα για τα ρομπότ. Σε δύο μέρη. Εδώ το πρώτο μέρος της συνέντευξης:

Δημοσιογράφος:  Γιατί πιστεύετε πως οι "κακές μηχανές" γοητεύουν τους ανθρώπους;
PL: Νομίζω ότι σε ένα μεγάλο βαθμό αυτό είναι μια εικόνα που έχει ο σύγχρονος άνθρωπος για τον εαυτο του. Κατά κάποιο τρόπο, τα ρομπότ θεωρούνται ως αντικαταστάτες για τους ανθρώπους: μπορούν να κάνουν πολλές από τις δουλειες μας καλύτερα - συνήθως τις βαρετές,τις βρώμικες και τις επικίνδυνες δουλειές - και μπορούν να βοηθήσουν εκεί που δεν μπορούμε εμείς, όπως σε μια εξερεύνηση με υποβρύχια στο βυθό ή στο αφιλόξενο περιβάλλον του Άρη. Έτσι, η γοητεία που έχουμε για τις "κακές" μηχανές είναι στην πραγματικότητα είτε η ανησυχία που νιώθουμε για τον εαυτο μας άμεσα είτε έμμεσα μέσω της τεχνολογίας. Είναι σαν ένα μπούμερανγκ - ένα θεαματικό και βίαιο γεγονός που συμβαίνει όταν τα πράγματα πάνε με διαφορετικό τρόπο από ό, τι έχουμε προγραμματισει.
Είναι στην ουσία μια ύβρη που υπάρχει  στο μυαλό μας, πως μπορούμε να κυριαρχούμε στο περιβάλλον μας και η εμπιστοσύνη που δείχνουμε στην τεχνολογία μας οδηγεί εκεί. Όμως, σε αντίθεση, με τους υπολογιστές που "κρασάρουν", τα ρομποτικά λάθη μπορούν να προκαλέσουν σοβαρές σωματικές βλάβες. Θέλουμε να πιστεύουμε ότι τα λάθη του υπολογιστή τελικά μπορούν να διορθωθούν, όπως η αποκατάσταση ενός τραπεζικού λογαριασμού που είχε διαγραφεί κατά λάθος, αλλά  μια σωματική βλάβη δεν μπορεί να αναιρεθεί. Τα επι μέρους σφάλματα , θα μπορούσαν να αλληλεπιδρούν με  τα ρομπότ ή χρησιμοποιούνται με τρόπους που να οδηγούν σε σοβαρούς τραυματισμούς. Σε αντίθεση με τους υπολογιστές, τα ρομπότ έχουν προκαλέσει άμεση και απευθείας  πόνο και τραυματισμούς κατά τη διάρκεια της λειτουργίας τους, με το πρώτο καταγεγραμμένο θάνατο περίπου 30 χρόνια πριν.

Δημοσιογράφος: Ποια είναι τα κύρια ζητήματα που σχετίζουν τα ρομπότ με τη δεοντολογία?
PL: Σήμερα,η ηθική είναι ένα από τα πλέον φλέγοντα ζητήματα αυτά που  σχετίζονται με τα στρατιωτικά ρομπότ. Πρώτον, ο στρατός είναι  ένας βασικός μοχλός της τεχνολογικής έρευνας και ανάπτυξης. Έχουν χαλαρους κανόνες και δεοντολογία που δεν θα είχαμε σε ένα πολιτικό σκηνικό. Για παράδειγμα, σε μια πόλη,  υπάρχουν (ελπίζουμε) αυστηρές δοκιμές και διασφαλίσεις  ωστε να διασφαλίσουμε ότι ένα ρομπότ δεν θα βλάψει ή θα σκοτώσει έναν άνθρωπο. Αλλά στο στρατό, αυτή θα μπορούσε να είναι ακριβώς η δουλειά του ρομπότ-να σκοτώσει τον εχθρό. Ως εκ τούτου, η ρομποτική μπορεί βεβαίως να χρησιμοποιηθεί ευρύτερα σε στρατιωτικες συνθήκες παρά σε καταστάσεις ειρήνης, συνεπώς, μεγαλώνουν τα ηθικά ζητήματα για τα οποία μιλήσαμε νωρίτερα. Το σενάριο "Terminator" δεν είναι φαινομενικά έγκυρο ή αρκετά βραχυπρόθεσμο  ώστε να συζητηθεί σοβαρά τώρα, αλλά δεν είναι παράλογο πλέον να ανησυχούμε  ότι στο στρατιωτικό τομέα ένας πόλεμος με ρομπότ που θα παίρνουν αυτόνομα αποφάσεις ζωής και θανάτου  θα μπορούσε να υπάρξει και μάλιστα σύντομα. Άλλες τρέχουσες ανησυχίες περιλαμβάνουν την ψυχολογική επιπτώση π.χ., μια εικονική αεροπορική επίθεση, όπου τραβώντας τη σκανδάλη για να σκοτώσει ανθρώπους, το ρομπότ ελέγχεται με τηλεχειρισμό από χιλιάδες χιλιόμετρα μακριά, καθώς και τη νομιμότητα της χρήσης τέτοιων ρομπότ για αποστολές που ίσως αλλιώς δεν θα επιχειρήσαμε, όπως η διασυνοριακή διαμάχη στο Πακιστάν.
Εκτός από τις στρατιωτικές χρήσεις, τα ρομπότ σήμερα αυξάνουν τον προβληματισμό και εγείρουν συζητήσεις για το αν πρεπει να τα χρησιμοποιήσουμε για babysit σε παιδιά και ως σύντροφους για τους ηλικιωμένους, αντί της πραγματικής ανθρώπινης επαφής. Ειδικοί στον τομέα θέσεων απασχόλησης, ανεργίας  και οικονομικών επιπτώσεων έχουν εκφράσει ανησυχίες σχετικά με τις νέες τεχνολογίες, από την εποχή της βιομηχανικής επανάστασης, όπως οι ταραχές στο Luddite (1811-1812) όπου εργάτες διέλυσαν τα μηχανήματα στο εργοστάσιο που είχε αντικατάστασει τους εργαζομένους. Στον Ιατρικό τομέα, ειδικά στη Χειρουργική, τα ρομπότ, εγείρουν θέματα που σχετίζονται με την αξιοπιστία ή την υπευθυνοτητα, για παράδειγμα, ένα σφάλμα που μπορεί να βλαψει τον ασθενή, ή ην απώλεια των χειρουργικών δεξιοτήτων των ανθρώπων. Και δεδομένου τη συνεχή αγωνία για την προστασία της ιδιωτικής ζωής, τα ρομπότ παρουσιάζουν τον ίδιο κίνδυνο με τους υπολογιστές . Κάνουν "κατασκοπία", δηλαδή,  συλλέγουν και μεταδίδουν πληροφορίες για το χρήστη (εμάς),  τη θέση του και τις προτιμήσεις του, χωρίς τη γνώση ή συγκατάθεση του. Έτσι νιώθουμε ήδη μεγαλύτερο κίνδυνο, δεδομένου ότι τείνουμε να εμπιστευόμαστε περισσότερο ένα ανθρωπόμορφο ρομπότ από έναν φορητό υπολογιστή.

Δημοσιογράφος:  Πώς οι τρεις Νόμοι της Ρομποτικής του Asimov  επηρεάζουν την τρέχουσα κατάσταση της ηθικής των ρομπότ; Πως πρέπει να προγραμματίζουμε τα ρομπότ;
 
PL: Εν πρώτοις, ακολουθώντας τους νόμους του Asimov ως μια πιθανή λύση, όπως κάνουν μερικοί άνθρωποι,  το μόνο που πετυχαίνουν είναι να ανάγουν την ηθική σε ένα απλό σύνολο κανόνων. Ακόμα και αν έχουμε εντοπίσει ηθικές αρχές ή  αξίες, δεν είναι σαφές με ποιον τρόπο μας βοηθάει να λύσουμε τις μεταξύ μας διαμαχες. Για παράδειγμα, ο Alan Dershowitz  τόνισε ότι οι δημοκρατίες αντιμετωπίζουν μια τριγωνική σύγκρουση μεταξύ της ασφάλειας, διαφάνειας, καθώς και των πολιτικών ελευθεριών, σχετικά με το ζήτημα του κατά πόσον θα έπρεπε να συμμετέχουν σε βασανιστήρια ή όχι, για παράδειγμα, σε μια περίπτωση οπλισμένης ωρολογιακής βόμβας. Μπορούμε επίσης να συμφωνήσουμε σε κάποια γενική αρχή ότι δεν πρέπει ποτέ ένα ρομπότ να σκοτώσει έναν αθώο , αλλά τι γίνεται αν η δολοφονία ενός αθώου  απαιτειται για να σώσει 10 ζωές, ή 100, ή 100.000 - θα μπορέσουμε να υπερασπιστούμε ένα αποδεκτό αριθμό, στον οποίο ο Νόμος μπορεί να παρακαμφθεί;
Δεύτερον, πολλά ζητήματα στην ηθική των ρομπότ δεν αφορούν τον τέλειο προγραμματισμό τους. Φανταστείτε ότι έχουμε δημιουργήσει ένα απόλυτα ηθικό ρομπότ φύλαξης βρεφών - εξακολουθεί όμως να είναι  ανοικτό το ερώτημα εάν θα έπρεπε να το χρησιμοποιήσουμε: Αντικαθιστώντας την ανθρώπινη αγάπη και την προσοχή με μηχανήματα για τη φροντίδα των παιδιών μας και των ηλικιωμένων μπορεί να παραβαίνει την ηθική ευθύνη μας για τη φροντίδα τους. Ο τέλειος προγραμματισμός επίσης δεν λύνει το ζήτημα της ανεργίας, το hacking για κακόβουλες χρήσεις, και άλλες αξιόποινες πράξεις.
Τρίτον, ακόμη κι αν όλα τα θέματα της ηθικής των ρομπότ αφορούν τον προγραμματισμό, δεν έχουμε ακόμη  δημιουργήσει την τέλεια λειτουργία του  λογισμικού ή του hardware. Οπότε γιατί να πιστεύουμε ότι ο σωστός προγραμματισμός θα λύσει όλα τα προβλήματά μας με τα  ρομπότ; Μερικές μόνο μέρες χωρίς κάποια εφαρμογή, συμπεριλαμβανομένου του λειτουργικού συστήματος,  ο υπολογιστής μου "κρασάρει", και ας είναι εφαρμογές που έχουν αναπτυχθεί και εξελιχθεί εδώ και χρόνια.
Δημοσιογράφος: Πείτε μας μερικά παραδείγματα τεχνολογιών που πήγε "πάρα πολύ  μπροστά  την ικανότητά μας να τα διαχειρίζομαστε", όπως γράψατε στη μελέτη Forbes?

PL: Λοιπόν, δουλεύω και σε άλλους τομείς της ηθικής της τεχνολογίας. Έτσι, στον τομέα της νανοτεχνολογίας, για παράδειγμα, υπήρξε μια βιασύνη για να εισαγουμε στην αγορά προϊόντα που χρησιμοποιούν νανοϋλικά, επειδή η «νανοτεχνολογία» ήταν μια μοντέρνα λέξη "πιασάρικου" μάρκετινγκ. Ωστόσο, υπήρχαν λίγες μελέτες που μελετούσαν για παραδειγμα αν ένα σώμα μπορεί να απορροφήσει τα νανοσωματίδια που βρίσκονται σε ορισμένες αντιηλιακές λοσιόν ή κατά πόσον υπάρχουν αρνητικές περιβαλλοντικές επιπτώσεις από NanoSilver σωματίδια που απορρίπτονται από ορισμένα πλυντήρια. Οι εταιρείες μόλις άρχισαν να πουλάνε τα προϊόντα αυτά, δίνοντας ελάχιστη σημασία σε μεγαλύτερες επιπτώσεις.
As δούμε ένα άλλο παράδειγμα, το φάρμακο Ritalin ( που χορηγείται στις ΗΠΑ και στη Βρετανία κυρίως στα υπερκινητικά παιδιά και στην Ελλάδα έχει επισήμως απαγορευθεί η χρήση του εδώ και τρία χρόνια, έχει καρδιακές παρενέργειες και προκαλεί θανάτους από ανακοπή της καρδιάς) χρησιμοποιείται από φοιτητές και εργαζόμενους που επιθυμούν να αυξήσουν την παραγωγικότητα στις σπουδές  ή την εργασία τους - εμπεριέχει μεγάλο κίνδυνο για την υγεία. Επίσης, δεν έχουμε σκεφτεί πραγματικά τη μεγαλύτερη εικόνα, πως οι γνωστικά τροποποιημένες ουσίες και τα φάρμακα ενδέχεται να διαταράξουν μεγάλο μέρος της κοινωνίας, όσο και τα στεροειδή τον αθλητισμό.Το Πρόγραμμα του Ανθρώπινου Γονιδιώματος DNA ξεκίνησε το 1990, αλλά  μόνο 17 χρόνια αργότερα υπήρξε πραγματική νομοθεσία για την προστασία των πολιτών. Τέλος, εξετάστε το σύγχρονο κόσμο με δικτυωμένους υπολογιστές - είμαστε ακόμα ψάξιμο μέσω της διανοητικής ιδιοκτησίας θέματα (όπως, μουσική file-sharing) και της ιδιωτικής ζωής αξιώσεις. Όλα αυτά μπορεί να πει ότι υπάρχει μια σημαντική χρονική υστέρηση μεταξύ της ηθικής ή δημόσιας τάξης και την ανάπτυξη μιας τεχνολογίας. Ο συνάδελφός μου, ο Jim Moor στο Dartmouth, ονομάζει αυτό ένα «κενό πολιτικής».
Συνεχίζεται...

Δεν υπάρχουν σχόλια: