Πώς να κρατήσετε τους αλγόριθμους υπεύθυνους

Οι αλγόριθμοι χρησιμοποιούνται πλέον σε όλο τον δημόσιο και ιδιωτικό τομέα, ενημερώνοντας τις αποφάσεις για τα πάντα, από την εκπαίδευση και την απασχόληση μέχρι την ποινική δικαιοσύνη. Ωστόσο, παρά τις δυνατότητες για κέρδη αποδοτικότητας, οι αλγόριθμοι που τροφοδοτούνται από μεγάλα δεδομένα μπορούν επίσης ενισχύουν τις διαρθρωτικές διακρίσεις , παράγουν σφάλματα που αρνούνται υπηρεσίες σε ιδιώτες , ή ακόμα και να παρασύρουν ένα εκλογικό σώμα σε μια ψευδή αίσθηση ασφάλειας. Πράγματι, υπάρχει αυξανόμενη συνειδητοποίηση ότι το κοινό θα πρέπει να είναι επιφυλακτικό για το κοινωνικούς κινδύνους που προκύπτει από την υπερβολική εξάρτηση από αυτά τα συστήματα και την εργασία για να Κράτησέ τους υπεύθυνος .



Διάφορες προσπάθειες του κλάδου, συμπεριλαμβανομένων α κοινοπραξία των μεγαθήρων της Silicon Valley, αρχίζουν να παλεύουν με την ηθική της ανάπτυξης αλγορίθμων που μπορεί να έχουν απρόβλεπτες επιπτώσεις στην κοινωνία. Οι προγραμματιστές αλγορίθμων και οι διαχειριστές προϊόντων χρειάζονται νέους τρόπους για να σκεφτούν, να σχεδιάσουν και να εφαρμόσουν αλγοριθμικά συστήματα με τρόπους δημόσιας ευθύνης. Τους τελευταίους μήνες, εμείς και κάποιοι συνάδελφοι προσπάθησαν να αντιμετωπίσουν αυτούς τους στόχους δημιουργώντας α σύνολο αρχών για υπεύθυνους αλγόριθμους .

Ας εξετάσουμε μια περίπτωση όπου η αλγοριθμική λογοδοσία είναι απολύτως απαραίτητη: το βαθμολογίες αξιολόγησης κινδύνου που ενημερώνουν ποινικές αποφάσεις στο νομικό σύστημα των Η.Π.Α. Αυτές οι βαθμολογίες υπολογίζονται κάνοντας μια σειρά ερωτήσεων που σχετίζονται με πράγματα όπως η ηλικία του κατηγορούμενου, το ποινικό ιστορικό και άλλα χαρακτηριστικά. Τα δεδομένα τροφοδοτούνται σε έναν αλγόριθμο για τον υπολογισμό μιας βαθμολογίας που μπορεί στη συνέχεια να χρησιμοποιηθεί σε αποφάσεις σχετικά με την προφυλάκιση, την αναστολή, την αποφυλάκιση ή ακόμα και την καταδίκη. Και αυτά τα μοντέλα συχνά εκπαιδεύονται χρησιμοποιώντας ιδιόκτητους αλγόριθμους μηχανικής μάθησης και δεδομένα σχετικά με προηγούμενους κατηγορούμενους.





μπορούν οι άνθρωποι να αναπνεύσουν στον Άρη

Οι πρόσφατες έρευνες δείχνουν ότι οι αλγόριθμοι αξιολόγησης κινδύνου μπορεί να είναι φυλετικά προκατειλημμένοι, δημιουργώντας βαθμολογίες που, όταν είναι λάθος, πιο συχνά ταξινομούν εσφαλμένα τους μαύρους κατηγορούμενους ως υψηλού κινδύνου. Αυτά τα αποτελέσματα έχουν προκαλέσει μεγάλη διαμάχη. Δεδομένης της κυριολεκτικά αλλοιωτικής φύσης αυτών των αλγοριθμικών αποφάσεων, θα πρέπει να τύχουν προσεκτικής προσοχής και να λογοδοτήσουν για αρνητικές συνέπειες.

Οι αλγόριθμοι και τα δεδομένα που τους οδηγούν σχεδιάζονται και δημιουργούνται από ανθρώπους. Ακόμη και για τεχνικές όπως γενετικοί αλγόριθμοι που εξελίσσονται μόνα τους, ή αλγόριθμοι μηχανικής μάθησης όπου το προκύπτον μοντέλο δεν κατασκευάστηκε χειροποίητα από άτομο, τα αποτελέσματα διαμορφώνονται από ανθρωπογενείς σχεδιαστικές αποφάσεις, κανόνες σχετικά με το τι πρέπει να βελτιστοποιηθεί και επιλογές σχετικά με τα δεδομένα εκπαίδευσης που θα χρησιμοποιηθούν. Ο αλγόριθμος δεν είναι αποδεκτή δικαιολογία εάν τα αλγοριθμικά συστήματα κάνουν λάθη ή έχουν ανεπιθύμητες συνέπειες.

Η λογοδοσία συνεπάγεται την υποχρέωση αναφοράς και αιτιολόγησης της αλγοριθμικής λήψης αποφάσεων και μετριασμού τυχόν αρνητικών κοινωνικών επιπτώσεων ή πιθανών βλαβών. Θα εξετάσουμε τη λογοδοσία μέσα από το πρίσμα πέντε βασικών αρχών: υπευθυνότητα, επεξήγηση, ακρίβεια, δυνατότητα ελέγχου και δικαιοσύνη.



Ευθύνη . Για κάθε αλγοριθμικό σύστημα, πρέπει να υπάρχει ένα άτομο με την εξουσία να αντιμετωπίζει έγκαιρα τις αρνητικές ατομικές ή κοινωνικές του επιπτώσεις. Δεν πρόκειται για δήλωση σχετικά με τη νομική ευθύνη αλλά, μάλλον, για εστίαση σε οδούς αποκατάστασης, δημόσιο διάλογο και εσωτερική εξουσία για αλλαγή. Αυτό θα μπορούσε να είναι τόσο απλό όσο να δώσετε σε κάποιον από την τεχνική ομάδα σας την εσωτερική δύναμη και τους πόρους για να αλλάξει το σύστημα, διασφαλίζοντας ότι τα στοιχεία επικοινωνίας αυτού του ατόμου είναι δημόσια διαθέσιμα.

Επεξηγησιμότητα . Οποιεσδήποτε αποφάσεις που παράγονται από ένα αλγοριθμικό σύστημα θα πρέπει να είναι εξηγήσιμες στα άτομα που επηρεάζονται από αυτές τις αποφάσεις. Αυτές οι εξηγήσεις πρέπει να είναι προσιτές και κατανοητές στο κοινό-στόχο. οι καθαρά τεχνικές περιγραφές δεν είναι κατάλληλες για το ευρύ κοινό. Η εξήγηση των βαθμολογιών αξιολόγησης κινδύνου στους κατηγορούμενους και στους νομικούς συμβούλους τους θα προωθούσε την καλύτερη κατανόηση και θα τους βοηθούσε να αμφισβητήσουν προφανή λάθη ή ελαττωματικά δεδομένα. Ορισμένα μοντέλα μηχανικής μάθησης είναι πιο εξηγήσιμο από άλλους, αλλά μόνο και μόνο επειδή εμπλέκεται ένα φανταχτερό νευρωνικό δίκτυο δεν σημαίνει ότι έχει νόημα εξήγηση δεν μπορεί να παραχθεί.

ποια κατάσταση μετακινείτε για να φιλτράρετε

Ακρίβεια . Οι αλγόριθμοι κάνουν λάθη, είτε λόγω σφαλμάτων δεδομένων στις εισόδους τους (σκουπίδια μέσα, σκουπίδια έξω) είτε λόγω στατιστικής αβεβαιότητας στις εξόδους τους. Η αρχή του ακρίβεια υποδηλώνει ότι οι πηγές σφαλμάτων και αβεβαιότητας σε έναν αλγόριθμο και τις πηγές δεδομένων του πρέπει να προσδιορίζονται, να καταγράφονται και να συγκρίνονται. Η κατανόηση της φύσης των σφαλμάτων που παράγονται από ένα αλγοριθμικό σύστημα μπορεί να πληροφορήσει τις διαδικασίες μετριασμού.

Ακουστικότητα . Η αρχή του δυνατότητα ελέγχου δηλώνει ότι θα πρέπει να αναπτυχθούν αλγόριθμοι που να επιτρέπουν σε τρίτους να διερευνήσουν και να επανεξετάσουν τη συμπεριφορά ενός αλγορίθμου. Η δυνατότητα παρακολούθησης, ελέγχου και κριτικής αλγορίθμων θα οδηγούσε σε πιο συνειδητό σχεδιασμό και διόρθωση πορείας σε περίπτωση αποτυχίας. Ενώ μπορεί να υπάρχει τεχνικές προκλήσεις Επιτρέποντας τον δημόσιο έλεγχο, ενώ παράλληλα προστατεύει τις ιδιόκτητες πληροφορίες, ο ιδιωτικός έλεγχος (όπως στη λογιστική) θα μπορούσε να παρέχει κάποια δημόσια διασφάλιση. Όπου είναι δυνατόν, ακόμη και η περιορισμένη πρόσβαση (π.χ. μέσω ενός API) θα έδινε στο κοινό μια πολύτιμη ευκαιρία έλεγχος αυτών των κοινωνικά σημαντικών αλγόριθμους.



Δικαιοσύνη . Καθώς οι αλγόριθμοι λαμβάνουν ολοένα και περισσότερο αποφάσεις βασισμένες σε ιστορικά και κοινωνικά δεδομένα, οι υπάρχουσες προκαταλήψεις και οι ιστορικά μεροληπτικές ανθρώπινες αποφάσεις κινδυνεύουν να παραμείνουν σε αυτοματοποιημένες αποφάσεις. Όλοι οι αλγόριθμοι που λαμβάνουν αποφάσεις για άτομα θα πρέπει να αξιολογούνται για μεροληπτικές επιδράσεις. Τα αποτελέσματα της αξιολόγησης και τα κριτήρια που χρησιμοποιούνται θα πρέπει να δημοσιοποιούνται και να εξηγούνται.

Υπάρχει πολύς χώρος για να προσαρμόσετε και να ερμηνεύσετε αυτές τις αρχές στο δικό σας πλαίσιο, και φυσικά θα παρέμβουν πολιτικά, ιδιόκτητα ή επιχειρηματικά ζητήματα. Αλλά πιστεύουμε ότι η εξέταση αυτών των ιδεών κατά τη διάρκεια των κύκλων ανάπτυξης σχεδιασμού, υλοποίησης και κυκλοφορίας θα οδηγήσει σε πιο υπεύθυνη κοινωνική ανάπτυξη αλγορίθμων στην κοινωνία.

Πώς ξεκινάτε; Περιγράφουμε ορισμένα ρεαλιστικά ερωτήματα που μπορεί να επεξεργαστεί η ομάδα προϊόντος και ανάπτυξης για να σχηματίσει α δήλωση κοινωνικού αντίκτυπου που αντιμετωπίζει αυτές τις αρχές .

Ο Νικόλαος Διακόπουλος είναι επίκουρος καθηγητής στο Πανεπιστήμιο του Maryland, College Park. Η Sorelle Friedler είναι α n επίκουρος καθηγητής στο Haverford College και συνεργάτης στο Data & Society Research Institute.

κρύβω

Πραγματικές Τεχνολογίες

Κατηγορία

Χωρίς Κατηγοριοποίηση

Τεχνολογία

Βιοτεχνολογία

Τεχνική Πολιτική

Την Αλλαγή Του Κλίματος

Άνθρωποι Και Τεχνολογία

Silicon Valley

Χρήση Υπολογιστή

Περιοδικό Mit News

Τεχνητή Νοημοσύνη

Χώρος

Έξυπνες Πόλεις

Blockchain

Feature Story

Προφίλ Αποφοίτων

Σύνδεση Αποφοίτων

Δυνατότητα Ειδήσεων Mit

1865

Η Θέα Μου

77 Mass Ave

Γνωρίστε Τον Συγγραφέα

Προφίλ Στη Γενναιοδωρία

Βλέπεται Στην Πανεπιστημιούπολη

Επιστολές Αποφοίτων

Νέα

Εκλογές 2020

Με Ευρετήριο

Κάτω Από Τον Θόλο

Πυροσβεστική Μάνικα

Άπειρες Ιστορίες

Πανδημικό Τεχνολογικό Έργο

Από Τον Πρόεδρο

Θέμα Εξώφυλλου

Φωτογραφίες

Συνιστάται