Παρασκευή 12 Μαΐου 2017

Ευφυείς μηχανές με... ανθρώπινες προκαταλήψεις



Σπύρος Μανουσέλης
Oι ρατσιστικές-σεξιστικές προκαταλήψεις μας είναι συνήθως τα προϊόντα του πολιτισμού μέσα στον οποίο ζούμε και διαμορφώνονται από το περιβάλλον μέσα στο οποίο μεγαλώνουμε. 


Εξάλλου, αυτές οι κοινωνικές, εθνικές και φυλετικές προκαταλήψεις μας αποτυπώνονται -συνήθως υπόρρητα- στη γλώσσα που μιλάμε καθημερινά και επηρεάζουν καθοριστικά τον τρόπο με τον οποίο αντιλαμβανόμαστε τους άλλους και τις ίδιες μας τις πράξεις. 

Πώς όμως επηρεάζονται τα προγράμματα της Τεχνητής Νοημοσύνης από τις νοητικές προκαταλήψεις των δημιουργών τους; Αραγε, οι σύγχρονες «ευφυείς μηχανές» μπορούν να υπερβούν τις κοινωνικές και φυλετικές προκαταλήψεις των ανθρώπων; 

Τα προγράμματα που επιτρέπουν σε ένα «ευφυές» υπολογιστικό σύστημα να μαθαίνει μια ανθρώπινη γλώσσα μεταφέρουν στον υπολογιστή τις ρατσιστικές και φυλετικές διακρίσεις που περιέχονται και εκφράζονται μέσω αυτής της γλώσσας. 

Οι αλγόριθμοι που επιτρέπουν σε έναν υπολογιστή να μαθαίνει και να αναπαράγει την ανθρώπινη νοημοσύνη αφομοιώνουν όχι μόνο τις νοητικές μας ικανότητες, αλλά και τις κοινωνικές προκαταλήψεις μας! 

Συνεπώς, η αξιολόγηση π.χ. ενός βιογραφικού από έναν υπολογιστή δεν θα είναι λιγότερο μεροληπτική ή περισσότερο αντικειμενική από αυτή ενός ανθρώπου. 

Σε αυτό το εντυπωσιακό συμπέρασμα κατέληξε η έρευνα μιας ομάδας Αμερικανών ειδικών, η οποία πραγματοποιήθηκε στο τμήμα Τεχνητής Νοημοσύνης του Πανεπιστημίου Πρίνστον των ΗΠΑ και δημοσιεύτηκε πρόσφατα στο περιοδικό «Science». 

Yπάρχουν ήδη διάφορα «μαθησιακά προγράμματα» για υπολογιστές (machine learning), που επιτρέπουν στις μηχανές να επιτελούν εξίσου καλά -και ενίοτε καλύτερα από εμάς- ορισμένες ανθρώπινες νοητικές λειτουργίες. 

Ωστόσο, όπως διαπίστωσαν, όταν αυτές οι «ευφυείς μηχανές» μαθαίνουν να μιλάνε μια ανθρώπινη γλώσσα, αφομοιώνουν επίσης και τα υπόρρητα ρατσιστικά και σεξιστικά στερεότυπα που ενυπάρχουν σε αυτή τη γλώσσα, τα οποία και αναπαράγουν πιστά και άκριτα. 

Πώς όμως, αυτοί οι ερευνητές κατέληξαν σε αυτό το συμπέρασμα; Αφού εκπαίδευσαν τον υπολογιστή στην εκμάθηση της αγγλικής υποβάλλοντάς τον στην αφομοίωση περίπου 840 δισεκατομμυρίων λέξεων και σημασιών που υπάρχουν στο Διαδίκτυο, οι ερευνητές εφάρμοσαν, πρώτη φορά, ένα τυπικά ανθρώπινο ψυχολογικό τεστ για να ελέγξουν αν οι μηχανές είχαν αφομοιώσει και τις ανθρώπινες σεξιστικές, φυλετικές και ρατσιστικές προκαταλήψεις που εκφράζονται σε αυτή τη γλώσσα.

Τεστ υπόρρητων συνειρμών



Οι ψυχολόγοι γνωρίζουν από καιρό ότι οι ανθρώπινες υπόρρητες προκαταλήψεις μπορούν να ανιχνευτούν με σχετική ακρίβεια μέσω ενός ειδικού Τεστ Υπόρρητων Συνειρμών (Implicit Association Test), το οποίο μετρά το πώς οι άνθρωποι αυτομάτως και μη συνειδητά συσχετίζουν ορισμένες αρνητικές ή θετικές αξιολογήσεις τους με διαφορετικές κοινωνικές ομάδες. 

Για παράδειγμα, αυτό το τεστ παρέχει έναν δείκτη για το πώς διαφορετικά άτομα αποδίδουν θετικές ή αρνητικές ιδιότητες στα λευκά ή έγχρωμα πρόσωπα που βλέπουν. 

Με αυτή τη μέθοδο έγινε εφικτή η δημιουργία της Σύγχρονης Ρατσιστικής Κλίμακας (Modern Racism Scale) που επιτρέπει στους ψυχολόγους να αποτιμούν τις ρατσιστικές-φυλετικές προκαταλήψεις των εθελοντών που υποβάλλονται σε αυτό το λεκτικό τεστ. 

Για παράδειγμα, χάρη σε αυτό το τεστ διαπίστωσαν ότι οι περισσότεροι λευκοί Αμερικανοί συσχετίζουν ταχύτερα μια αρνητική λέξη με το πρόσωπο ενός μαύρου, καθώς και ότι εκδηλώνουν έναν υποσυνείδητο φόβο όποτε παρατηρούν πρόσωπα Αφροαμερικανών, μολονότι ενδέχεται να μιλάνε θετικά γι’ αυτά τα άτομα. 

Εφαρμόζοντας οι ερευνητές του Πρίνστον ένα ανάλογο τεστ στις υπολογιστικές μηχανές που εκτελούσαν κάποιο πρόγραμμα τεχνητής νοημοσύνης, διαπίστωσαν ότι οι τυπικά ανθρώπινες κοινωνικές προκαταλήψεις μεταφέρονται και αναπαράγονται από τις νοήμονες μηχανές. 

Για παράδειγμα, οι απαντήσεις των υπολογιστών επηρεάζονται καθοριστικά από τις ανθρώπινες προκαταλήψεις σχετικά με το χρώμα του δέρματος (μαύροι-λευκοί) και το φύλο (γυναίκες-άνδρες). 

Πράγματι, η εφαρμογή του τεστ συνειρμών σε υπολογιστές έδειξε ξεκάθαρα ότι μαζί με την ανθρώπινη γλώσσα τα υπολογιστικά συστήματα τεχνητής νοημοσύνης αφομοίωναν και τις κοινωνικές προκαταλήψεις μας. 

Πρόκειται για ένα πολύ σημαντικό αποτέλεσμα που μας αποκαλύπτει πολλά, όχι τόσο για την ευφυΐα των μηχανών όσο μάλλον για τη ρατσιστική-σεξιστική νοημοσύνη των δημιουργών τους.


Πηγή: efsyn.gr