Ζητήματα ηθικής για την εφαρμογή της Τεχνητής Νοημοσύνης

Ζητήματα ηθικής για την εφαρμογή της Τεχνητής Νοημοσύνης

Το απόσπασμα είναι από το βιβλίο του Δρ. Γιώργου Χατζηβασιλείου Φιλοσοφία της Τεχνητής Νοημοσύνης

Ζητήματα ηθικής ανακύπτουν διαρκώς από τις εφαρμογές της ΤΝ.

Μια από αυτές φερειπείν, η Mindstrong Health, εντοπίζει στο κινητό τηλέφωνο την κατάθλιψη που ίσως κάποιος εμφανίσει μήνες προτού εκείνη εκδηλωθεί. Σε πρώτη ανάγνωση δείχνει ως ένα εξαιρετικά ωφέλιμο εργαλείο πρόληψης της ψυχικής υγείας. Και πράγματι είναι. Αλλά τι γίνεται αν οι πληροφορίες που συγκεντρώνει απαιτηθούν από κάποιον εργοδότη ή αν εκείνος ζητήσει από έναν υποψήφιο του υπάλληλο να κάνει το τεστ; Θα προσλάμβανε ως συνεργάτη του κάποιον που θα αναμετρηθεί σύντομα με την κατάθλιψη; Και αν όχι, πώς μπορεί μια τέτοια χρήση της ΤΝ να γίνει όχι μόνο παράνομη αλλά και να αποτραπεί τελείως;            

Όσο ο νταταϊστικός κόσμος κεντά έναν ολοένα και πιο σύνθετο ψηφιακό ιστό ολοένα και πιο περίπλοκα θέματα ηθικής θα ανακύπτουν. Ηθικά ζητήματα όπως το παραπάνω είναι ωστόσο ισχνά μπροστά στο εκτόπισμα δύο κομβικών θεμάτων που θα μας απασχολήσουν σε αυτήν και την επομένη υποενότητα: α) το «Πρόβλημα του ελέγχου» της ΤΝ και β) την ανάδυση του καθαυτό μετανθρωπισμού. 

Το πρόβλημα του ελέγχου μπορεί να συνοψιστεί ως εξής. Αν μια ισχυρή ΤΝ δεν προγραμματιστεί από ηθική και τεχνική σκοπιά ορθά μπορεί να επιφέρει ακούσια χειμαρρώδεις κοινωνικές βλάβες εκτελώντας απλώς τις εντολές που τις έχουμε αναθέσει. Αυτό είναι το «πρόβλημα ελέγχου» όπως έχει ονομαστεί από τη φιλοσοφία του Νικ Μπόστρομ, ή «πρόβλημα της αξιακής ευθυγράμμισης» όπως έχει ονομαστεί από τον Στιούαρτ Ράσελ.  

Εάν θέλουμε να δούμε μια μικρογραφία του προβλήματος ας κοιτάξουμε την περίπτωση της εφαρμογής “Τέι” της Microsoft.  Η Τέι κυκλοφόρησε το 2018 για να κάνει φιλικές και λογικές συζητήσεις με τους χρήστες του ίντερνετ μιλώντας όπως μια 19χρονη κοπέλα, και αποτελούσε ένα φιλόδοξο εγχείρημα της εταιρείας. Όταν παρουσιάστηκε στο κοινό η Τέι δεν μπόρεσε όμως να είναι ούτε φιλική ούτε λογική. Χρησιμοποιούσε μια γλώσσα ρατσιστική, σεξιστική και επιθετική, φθάνοντας στο σημείο να αρνείται την ύπαρξη του Ολοκαυτώματος. Η Microsoft την απέσυρε αμέσως. Η αιτία για την παρεκτροπή της ήταν ότι οι μηχανικοί της την είχαν προγραμματίσει να μαθαίνει την αγγλική γλώσσα με λάθος τρόπο – μιμούμενη άλλους χρήστες του διαδικτύου, οπότε και μιμήθηκε και την επιθετικότητα του λόγου τους στα social media. Μια εφαρμογή τεχνητής νοημοσύνης χαμηλής ισχύος όπως η Τέι έφερε όχι απλώς παράπλευρες απώλειες, αλλά και τα ακριβώς αντίστροφα αποτελέσματα από εκείνα για τα οποία είχε σχεδιαστεί. Κι όλο αυτό από ένα “μικρό” λάθος στον προγραμματισμό του κώδικά της. Τι μπορούμε να περιμένουμε σε περίπτωση κακού προγραμματισμού πολύ πιο προηγμένων ή πολύ πιο επίφοβων μηχανών ΤΝ; 

Η  ΤΝ βλέπετε δεν χρησιμοποιείται μόνο για να προσομοιώνει φιλικά 19χρονα κορίτσια. Χρησιμοποιείται και για να κάνει αιματηρούς πολέμους. Η Νότια Κορέα σχεδιάζει ως το 2024 να ενισχύσει τον στρατό της με στρατιωτικά ρομπότ και το ίδιο σχεδιάζουν πάμπολλες άλλες χώρες.  Το Ισραήλ οχυρώνεται με ΤΝ που κανένα άλλο κράτος της περιοχής του δεν μπορεί να αντιμετωπίσει.  Η Ρωσία επιτέθηκε με κυβερνοπόλεμο στην Εσθονία πριν από κάποια χρόνια και η Εσθονία βραχυκύκλωσε για τρεις μέρες: από τα φανάρια στους δρόμους μέχρι τα νοσοκομεία και τις τράπεζες τίποτα δεν λειτουργούσε σωστά.  Η στρατιωτική πολιτική αλλάζει στον 21ο αιώνα άρδην.

Τα αυτόνομα όπλα (εκείνα που στηρίζονται στην ΤΝ και εκτελούν στόχους από μόνα τους) έχουν χαρακτηριστεί ως η «3η επανάσταση του πολέμου» μετά το μπαρούτι και τα πυρηνικά.  Τι θα γίνει εάν ένα από αυτά προγραμματιστεί ηθικά ή τεχνικά λάθος; Αν είναι φτιαγμένο να επιτίθεται σε στρατιωτικούς αντιπάλους αλλά αντί για αυτό, από μια αβλεψία στον κώδικα του, επιτεθεί μαζικά και ακαριαία σε αμάχους; Χαρακτηριστικό είναι το παράδειγμα μιας ψηφιακής προσομοίωσης από ένα όπλο ΤΝ που σκότωσε τον χειριστή του επειδή έκρινε πως εκείνος έστεκε εμπόδιο στους σκοπούς του.  Τι θα γίνει αν κάτι αντίστοιχο συμβεί σε μια πραγματική συνθήκη πολέμου ή ειρήνης – και δη μαζικά;      

Οι προεκτάσεις των όπλων αυτών είναι ερεβώδεις και οι φωνές όσων εναντιώνονται στη χρήση τους διαρκώς πληθαίνουν.  Είναι αμφίβολο το κατά πόσο αυτό θα περιορίσει όμως την εξάπλωση τους στα πεδία μάχης του 21ου αιώνα. Το κράτος που θα κατέχει τα πιο εξελιγμένα όπλα της ΤΝ στις επόμενες γενιές θα είναι πιθανώς κι εκείνο που θα κυριαρχήσει στον κόσμο – με την ίδια λογική που οι Ευρωπαίοι του 16ου αιώνα κυριάρχησαν στους Ινδιάνους επειδή οι πρώτοι είχαν κανόνια και τουφέκια ενώ οι δεύτεροι ακόντια και τόξα. Και ας μη λησμονούμε ότι οι μηχανές της τεχνητής νοημοσύνης είναι ασύμμετρα πιο ισχυρές από ένα κανόνι, και σε θέση να λαμβάνουν δικές τους πρωτοβουλίες.             

Οι μηχανές είναι “φυσικοί ψυχοπαθείς”. Δεν έχουν τη δυνατότητα ενοχών ή συναισθημάτων. Δεν μπορούν να σταματήσουν τη δράση τους επειδή θα αισθανθούν ότι εκείνη τείνει να γίνει ολέθρια. Πράγματα που είναι φυσικά κι ενστικτώδη για εμάς δεν είναι και για τους αλγόριθμους. Η μόνη δικλείδα ασφαλείας στη χρήση μιας υψηλής ΤΝ είναι ένας ηθικά και τεχνικά χειρουργικά ακριβής προγραμματισμός της. 

Ο ακριβής ηθικά προγραμματισμός δεν είναι αναγκαίος μόνο σε στρατιωτικές εφαρμογές της ΤΝ. Για να επιφέρει μια ΥΝ ιδίως οδυνηρές συνέπειες δεν χρειάζεται να έχει κάποιον φονικό σκοπό. Μπορεί να έχει και τον πλέον καλοκάγαθο. Έστω ότι μια ΥΝ στο μέλλον λαμβάνει την εντολή “κάνε εμένα τον άνθρωπο χαρούμενο”. Αν ο κώδικας της δεν έχει γραφτεί με περίσσια θεωρητική μέριμνα αλλά αντίθετα είναι προγραμματισμένος άστοχα, η ΤΝ ίσως αποφασίσει να εμποτίσει π.χ. τον χρήστη της με ατελείωτα ψυχοφάρμακα ή να του βάλει ηλεκτρόδια στον εγκέφαλο που θα του ενεργοποιεί τους νευροδιαβιβαστές της ευφορίας ασταμάτητα μεταμορφώνοντας τον σε “ζόμπι χαράς”. Τούτο θα κατέστρεφε πρόδηλα την υγεία και θα παραμόρφωνε ανεπίστρεπτα την προσωπικότητα του – αλλά η ΤΝ δε θα αντιλαμβάνονταν ότι έκανε κάτι κακό˙ εκείνη θα εκτελούσε μόνο την εντολή που της είχε δοθεί.       

Αυτό είναι «το πρόβλημα της προκατάληψης» (“bias  problem”)  της ΤΝ που συνιστά μέρος από το «πρόβλημα ελέγχου»: με ποια data και αξίες φορτώνουμε τους αλγορίθμους για να μην αντανακλούν τις δικές μας εσφαλμένες και επίφοβες προκαταλήψεις; Πώς προσδιορίζουμε τους όρους που χρησιμοποιούν όπως το “τι είναι χαρά”; Το ζήτημα αφορά όχι μόνο μια υπερνοημοσύνη του μέλλοντος αλλά και κάθε σημερινή εφαρμογή της ΤΝ: από τις πλέον επίφοβες, όπως είναι τα αυτόνομα όπλα, έως τις πλέον καθημερινές, όπως είναι η αναζήτηση φωτογραφιών στο web.

Το 2015 χτύπησε συναγερμός στη Google όταν μια έρευνα κατέδειξε ότι η αναζήτηση στον ιστότοπο της μιας φωτογραφίας από “χέρια”, σχεδόν έδειχνε μόνο λευκά χέρια.  Όταν μάλιστα η αναζήτηση αφορούσε “μαύρα χέρια” έβγαζε φωτογραφίες με σαφώς υποτιμητικό περιεχόμενό για τη μαύρη φυλή (όπως ένα λευκό χέρι που απλώνονταν σε ένα μαύρο για να προσφέρει βοήθεια, μαύρα χέρια να δουλεύουν σε χωράφια κλπ). Ήταν μια οδυνηρή διαπίστωση που έδειξε ότι η ΤΝ της Google αντί να γεφυρώνει τις κοινωνικές διακρίσεις τις μεγεθύνει. Ακολούθησαν άλλες έρευνες που εξήγησαν γιατί συμβαίνει κάτι τέτοιο: οι περισσότεροι προγραμματιστές στις μεγάλες ψηφιακές εταιρείες όπως η Google ήταν λευκοί άντρες. Επιπλέον όταν έλεγχαν τις εφαρμογές που έφτιαχναν πριν βγουν στην αγορά τις δοκίμαζαν σε ομάδες που ήταν κατά 74% άντρες και κατά 83% λευκοί.  Η ΤΝ έτσι αντανακλούσε αναπόδραστα τις - εκούσιες και ακούσιες - προκαταλήψεις των κατασκευαστών της.     

Prev
Γιώργος Χατζηβασιλείου
17.70€ 15.93€
Next
Σχετικά άρθρα
Prev
Μπορεί ο άνθρωπος να ελέγξει κάτι πιο ευφυές από τον ίδιο;
Μπορεί ο άνθρωπος να ελέγξει κάτι πιο ευφυές από τον ίδιο;

Κάθε χρόνο την τρίτη Πέμπτη του Νοεμβρίου, με πρωτοβουλία της UNESCO γιορτάζεται η Παγκόσμια Ημέρα Φιλοσοφίας.

Next

Σχολιάστε

Η ηλ. διεύθυνσή σας δεν κοινοποιείται. Τα υποχρεωτικά πεδία σημειώνονται με *