Σε οριακές καταστάσεις και κρίσιμα διλήμματα, όταν οι ανθρώπινες αποφάσεις αγγίζουν τα όριά τους, οι κοινωνίες συχνά στρέφονται σε εξωτερικές αυθεντίες για να αποθέσουν σε αυτές την ευθύνη των πιο δύσκολων επιλογών.
Ιδιαίτερα σε περιόδους κρίσης, επιδιώκεται η λήψη αποφάσεων που να φαντάζουν αντικειμενικές, αξιόπιστες και αδιάβλητες. Στη σύγχρονη εποχή, η αυθεντία αυτή ενσαρκώνεται όλο και συχνότερα από τα υπολογιστικά συστήματα και τους λεγόμενους «έξυπνους» αλγόριθμους, οι οποίοι καλούνται να κρίνουν σε πεδία όπως η υγεία, η δικαιοσύνη, η ασφάλιση και η απασχόληση. Πολλοί ισχυρίζονται ότι οι αποφάσεις των αλγορίθμων είναι ταχύτερες, πιο ουδέτερες και περισσότερο απαλλαγμένες από ανθρώπινες προκαταλήψεις. Αλλά παραμένει το θεμελιώδες ερώτημα: είναι και πιο ηθικές;
Για να κωδικοποιήσουμε την ηθική σε έναν αλγόριθμο, χρειάζεται πρώτα να κατανοήσουμε ότι η ηθική δεν είναι συλλογή από σταθερούς κανόνες αλλά σύνθετη διαδικασία κρίσης. Αξιολογούμε πράξεις, προθέσεις και συνέπειες μέσα σε συγκεκριμένο κοινωνικό και πολιτισμικό πλαίσιο. Στην ηθική φιλοσοφία διακρίνουμε τουλάχιστον τέσσερα ρεύματα: τη συνεπειοκρατία (ωφελιμισμό), που κρίνει την ορθότητα βάσει των αποτελεσμάτων· τη δεοντοκρατία, που εστιάζει σε ανεξάρτητα από τις συνέπειες καθήκοντα· την αρετοκρατία, που αναδεικνύει τον ρόλο του χαρακτήρα και των αρετών του πράττοντος· και τη φρόνηση, την πρακτική σοφία που επιτρέπει ευέλικτη κρίση ανάλογα με τη συγκυρία. Καμία από αυτές τις θεωρίες δεν κατέχει το απόλυτο ηθικό μονοπώλιο – όλες συμβάλλουν σε έναν γόνιμο διάλογο αξιών. Έτσι, όταν προγραμματίζουμε «ηθικές αποφάσεις», το κεντρικό ερώτημα γίνεται καθαρά φιλοσοφικό: ποιες από αυτές τις προσεγγίσεις θα ενσωματώσουμε στον κώδικα και ποιες θα αφήσουμε έξω;
Αυτό που οι φιλόσοφοι ονομάζουν ηθικός πλουραλισμός σηκώνει το βάρος της αλήθειας ότι στις σύγχρονες κοινωνίες συνυπάρχουν ποικίλα, πολλές φορές αντικρουόμενα, συστήματα αξιών και διαφορετικές αντιλήψεις για το τι συνιστά δίκαιο, σωστό ή καλό. Σε ένα τέτοιο περιβάλλον, η «ηθική» καθίσταται πολυφωνική και πολυδιάστατη. Όταν λοιπόν επιχειρούμε να «φορτώσουμε» αυτές τις αντιλήψεις σε έναν αλγόριθμο, να του υπαγορεύσουμε με κώδικα τι πρέπει να κρίνει ηθικά, αναγκαστικά επιλέγουμε κάποιες αξίες εις βάρος κάποιων άλλων. Με άλλα λόγια, κάθε γραμμή κώδικα που ορίζει το «ορθό» αντικατοπτρίζει μια συγκεκριμένη ηθική επιλογή, ακόμα κι αν η κοινωνία δεν έχει καταλήξει σε ομόφωνη θεσμική ή πολιτισμική συναίνεση για το ποια αξία υπερέχει. Συνεπώς, το ζήτημα δεν είναι απλώς η τεχνική αρτιότητα του κώδικα, αλλά η βαθιά φιλοσοφική κρίση γύρω από το ποια ηθικά συστήματα — συνεπειοκρατία, δεοντολογία, αρετολογία ή φρόνηση — θα επιλέξουμε να ενσωματώσουμε σε γραμμές κώδικα και ποια θα παραμείνουν εκτός, σε έναν κόσμο χωρίς κοινή συμφωνία για το τι συνιστά «το σωστό».
Στον τομέα της ιατρικής, τον Ιούνιο του 2025 παρουσιάστηκε το GLUCOSE, ένα σύστημα ενισχυτικής μάθησης που «παρακολουθεί» σε πραγματικό χρόνο τα επίπεδα γλυκόζης στο αίμα σε ασθενείς στις ΜΕΘ μετά από καρδιοχειρουργικές επεμβάσεις και προτείνει προσαρμογές στη δόση ινσουλίνης με στόχο τη μείωση επιπλοκών και θνητότητας.
Παρά τα εντυπωσιακά αρχικά αποτελέσματα σε ελεγχόμενες δοκιμές, η ευρεία κλινική επικύρωσή του διαφαίνεται να αργεί και σε ακραίες συνθήκες, μια «λάθος» σύσταση θα μπορούσε να αποβεί μοιραία. Ποιος, λοιπόν, αναλαμβάνει την ευθύνη αν η «έξυπνη» απόφαση οδηγήσει σε βλάβη; Αντίστοιχα, στην Πολιτεία της Λουιζιάνα των ΗΠΑ, ο αλγόριθμος TIGER (θεσμικά κατοχυρωμένος με νομοθετική διάταξη τον Αύγουστο του 2024 και τεχνικά σχεδιασμένος από ερευνητές του Πανεπιστημίου της Λουιζιάνα) εφαρμόζει πολυπαραγοντική βαθμολόγηση κρατουμένων βάσει αμετάβλητων κριτηρίων όπως η ηλικία πρώτης σύλληψης, το ποινικό ιστορικό και το εργασιακό υπόβαθρο, κατηγοριοποιώντας τους σε «χαμηλού», «μέτριου» ή «υψηλού» κινδύνου υποτροπής. Ένας 70χρονος κρατούμενος, που πάσχει από προχωρημένη απώλεια όρασης και τηρεί υποδειγματική διαγωγή εντός φυλακής, κατατάχθηκε από το TIGER ως «μέτριου κινδύνου» και είδε το αίτημά του για αποφυλάκιση να απορρίπτεται, παρά την ειλικρινή του μεταμέλεια. Το αποτέλεσμα είναι μια ψυχρή, αριθμητική «δικαιοσύνη» που αγνοεί τον ατομικό του βίο και την ανθρώπινη κρίση, όμως η ζωή κάθε προσώπου δεν μπορεί ποτέ να περιοριστεί σε έναν απλό δείκτη.
Η συντριπτική πλειονότητα των αλγορίθμων που εφαρμόζονται σε αυτού του είδους τις κρίσιμες αποφάσεις στηρίζεται σε συνεπειοκρατικά, ωφελιμιστικά κριτήρια, επιδιώκοντας τη μέγιστη ωφέλεια (ή «ευτυχία») για το μεγαλύτερο δυνατό αριθμό ατόμων. Από αυτή την οπτική αναδύεται ο λεγόμενος «ψηφιακός ωφελιμισμός»: η προτεραιοποίηση των νεότερων ασθενών, με βάση το μεγαλύτερο αναμενόμενο προσδόκιμο ζωής, ή η επιλογή εκείνων που αναμένεται να παρουσιάσουν τις λιγότερες επιπλοκές, ώστε να μειωθεί το κόστος για το εθνικό σύστημα υγείας. Ωστόσο, αυτή η προσέγγιση παρακάμπτει την ηθική μοναδικότητα κάθε ηθικού προσώπου και ενέχει τον κίνδυνο να αναπαράγει και να εντείνει υφιστάμενες κοινωνικές ανισότητες, καθότι τα «αντικειμενικά» δεδομένα στα οποία βασίζεται συχνά φέρουν ενσωματωμένες προκαταλήψεις και πολιτισμικές παραδοχές. Η απόπειρα να μετασχηματίσουμε ηθικές αξίες σε μαθηματικούς αλγορίθμους δεν είναι απλώς αντιφατική προς την πολυπλοκότητα της ηθικής αλλά εγείρει σοβαρούς κινδύνους. Καμία ηθική θεωρία δεν διαθέτει καθολική αποδοχή: ο Αριστοτέλης ανέδειξε την αρετή ως θεμέλιο της ηθικής συμπεριφοράς, ο Καντ πρόταξε το άτεγκτο καθήκον ανεξαρτήτως συνεπειών και ο Μπένθαμ εδραίωσε τη συνεπειοκρατία.
Άρα ο αλγόριθμός μας θα είναι δεοντοκράτης, αρετοκράτης ή συνεπειοκράτης; Επιπλέον, εντείνεται το φαινόμενο της «ηθικής ευθύνης χωρίς δρώντα»: σε περίπτωση σφάλματος, η απόδοση ευθύνης αποσυνδέεται από έναν ηθικό φορέα και διαχέεται μεταξύ των συντακτών του αλγορίθμου, των φορέων που τον θεσμοθετούν ή τον υιοθετούν και των τελικών χρηστών, ενώ ο ίδιος ο αλγόριθμος παραμένει άψυχος, αποστερημένος από συνείδηση, πρόθεση ή οποιοδήποτε ηθικό αίσθημα. Στην πραγματικότητα, οι αλγόριθμοι δεν είναι ουδέτερα εργαλεία· φέρουν μέσα τους αξιακές προϋποθέσεις. Είναι φορείς προτιμήσεων και πολιτισμικών αξιών, συνήθως των ισχυρών θεσμών ή επιχειρήσεων που τους διαμορφώνουν. Έτσι, όση «τεχνική» κι αν εμφανίζεται η ηθική τους, στην πραγματικότητα είναι βαθύτατα πολιτική.
Αυτό που λείπει δεν είναι καλύτεροι αλγόριθμοι. Το ουσιώδες διακύβευμα δεν έγκειται στην τεχνολογική αρτιότητα ή τη λειτουργική βελτιστοποίηση των αλγορίθμων, αλλά στην κανονιστική κρίση που προηγείται της υλοποίησής τους: ποια αξιακά πρότυπα οφείλουμε, ως κοινωνία, να ενσωματώσουμε στις αυτοματοποιημένες αποφάσεις. Αυτό καθιστά επιτακτική την ανάγκη για έναν θεσμοθετημένο, δημόσιο και διεπιστημονικό διάλογο, φιλοσοφικά θεμελιωμένο, με τη συγκρότηση ανεξάρτητων συμβουλίων τεχνολογικής ηθικής. Σε αυτά, φιλόσοφοι, νομικοί, τεχνοκράτες και πολίτες οφείλουν να συνεξετάζουν το ηθικό υπόβαθρο των αλγοριθμικών συστημάτων και να διασφαλίζουν τη συμβατότητά τους με τις θεμελιώδεις αρχές της δικαιοσύνης και της αξιοπρέπειας. Η διαφάνεια, σε αυτό το πλαίσιο, δεν συνιστά απλώς διαδικαστική απαίτηση, αλλά θεμέλιο δημοκρατικής λογοδοσίας, διότι κάθε τεχνολογική πράξη είναι ταυτοχρόνως μια ηθική επιλογή, και καμία γραμμή κώδικα δεν είναι απαλλαγμένη από ευθύνη.
Οι αλγόριθμοι δεν αποτελούν οθόνη πίσω από την οποία μπορούμε να κρυφτούμε· είναι καθρέφτες υψηλής ευκρίνειας. Στις αντανακλάσεις τους διακρίνονται τα δικά μας κριτήρια, οι προκαταλήψεις μας, οι ιεραρχήσεις που κάνουμε – συχνά χωρίς να το συνειδητοποιούμε. Ό,τι θεωρούμε ουδέτερο στον κώδικα είναι η σκιά των επιλογών μας, ό,τι φαίνεται αντικειμενικό στη μηχανή είναι το αποτύπωμα της δικής μας ηθικής. Γι’ αυτό, κοιτάζοντας τους αλγόριθμους, βλέπουμε λιγότερο την τεχνητή νοημοσύνη και περισσότερο την ανθρωπιά – ή την έλλειψή της – που τους προγραμματίσαμε να ενσωματώνουν.
*Η Μαρία Κ. Χωριανοπούλου είναι Επίκουρη Καθηγήτρια Πρακτικής Φιλοσοφίας – Ιατρικής Ηθικής