Skip to main content

Τεχνητή Νοημοσύνη και Υπηρεσίες Υγείας

Από νομικής απόψεως, η Τεχνητή Νοημοσύνη δημιουργεί προκλήσεις στο ερώτημα της ευθύνης.

Του Σταύρου Κιτσάκη, δικηγόρου, μεταδιδάκτορος της Νομικής Σχολής Αθηνών στο πεδίο της Τεχνητής Νοημοσύνης

ΑΠΟ ΤΗ ΣΤΙΓΜΗ που γεννήθηκε η δυνατότητα καθημερινής και καθολικής επαφής με αυτό που ονομάζουμε «Τεχνητή Νοημοσύνη», στιγμή που τοποθετείται στη διάδοση του γνωστού πια ChatGPT, ο δημόσιος διάλογος κατακλύζεται από συζητήσεις για τις δυνατότητες εφαρμογής αυτής της τεχνολογίας σε όλο και περισσότερους τομείς της καθημερινότητας. Ένας από τους τομείς στον οποίο έχουν ήδη σημειωθεί τεράστια βήματα κατά τα τελευταία χρόνια είναι αυτός των ιατρικών υπηρεσιών. Όσο, όμως, η τεχνολογική ανάπτυξη πλησιάζει στην εφαρμογή της έρχεται αντιμέτωπη με ερωτηματικά που θέτει η πραγματικότητα. Κάποια απ’ αυτά, με έμφαση στα νομικής φύσεως ερωτηματικά, θέλουμε να δούμε εγγύτερα.

ΟΙ ΔΥΝΑΤΟΤΗΤΕΣ των εφαρμογών της Τεχνητής Νοημοσύνης στον χώρο της υγείας είναι ήδη αρκετές. Στην ογκολογία επιτυγχάνεται μεγαλύτερη ακρίβεια στη διάκριση μορφών όγκων με τη συνδρομή εφαρμογών Τεχνητής Νοημοσύνης. Στην καρδιολογία υπάρχουν αλγόριθμοι που αξιοποιούν καρδιογραφήματα εντός δευτερολέπτων. Στην ακτινολογία (ακτινογραφία, υπέρηχοι, αξονική / μαγνητική τομογραφία, η λεγόμενη ραδιομική ανάλυση) ενισχύεται η δυνατότητα να χρησιμοποιηθεί η Τεχνητή Νοημοσύνη για μεγαλύτερη ακρίβεια της διάγνωσης και πρόβλεψη της ανταπόκρισης στη θεραπεία. Στη νευρολογία μπορεί η ΤΝ να συνεισφέρει στην έγκαιρη διάγνωση της νόσου Αλτσχάιμερ. Στο πεδίο της χειρουργικής υπάρχουν προγράμματα που συνδράμουν, εδώ διορθωτικά κυρίως, το έργο του χειρουργού. Σημαντική αναμένεται η συνεισφορά της ΤΝ και στο πεδίο της νοσοκομειακής περίθαλψης. Συνοψίζοντας τα παραπάνω, στο πεδίο των ιατρικών υπηρεσιών η συμβολή της ΤΝ αφορά καταρχάς τη βελτιστοποίηση της διάγνωσης και της θεραπείας. Ταυτόχρονα η βελτιστοποίηση στη διαχείριση νοσοκομειακών δεδομένων υπόσχεται μείωση γραφειοκρατίας εντός του νοσοκομείου και ταυτόχρονη μείωση της επιβάρυνσης του προσωπικού, ειδικά στο πεδίο της περίθαλψης, όταν λ.χ. η χορήγηση του φαρμάκου στον ασθενή θα ανατίθεται στο ρομπότ. Ταυτόχρονα, τουλάχιστον στον χώρο της υγείας, δεν αναμένεται υποκατάσταση του προσωπικού από την Τεχνητή Νοημοσύνη. Πλάι σε όλα αυτά τα οφέλη αναμένεται και ραγδαία οικονομική ανάπτυξη του πεδίου. Στις ΗΠΑ υπολογίζεται χονδρικά ο άμεσος δεκαπλασιασμός της αγοράς ιατρικών υπηρεσιών και προϊόντων που σχετίζονται με τη χρήση ΤΝ.

ΜΑΖΙ ΜΕ ΤΙΣ υποσχέσεις έρχονται οι κίνδυνοι και μαζί με αυτούς η κριτική. Από νομικής απόψεως η Τεχνητή Νοημοσύνη δημιουργεί προκλήσεις στο ερώτημα της ευθύνης. Η λειτουργία της Τεχνητής Νοημοσύνης χαρακτηρίζεται συχνά ως «μαύρο κουτί» (black box), με την έννοια της έλλειψης διαφάνειας, κατανόησης και προβλεψιμότητας. Κύριο χαρακτηριστικό της είναι η δυνατότητα του προγράμματος να λαμβάνει αυτόνομα αποφάσεις, δηλαδή αποφάσεις που δεν προκύπτουν ευθέως από τον προγραμματισμό του λογισμικού. Αν κάποιες πτυχές της ενέργειας της Τεχνητής Νοημοσύνης που οδήγησε, για παράδειγμα, στη ζημία του ασθενούς ανάγονται σε αυτόνομη επεξεργασία δεδομένων και όχι σε λάθος λειτουργία του λογισμικού, ποιος θα ευθύνεται για τη ζημία; Ο γιατρός, η νοσοκόμα, ο δημιουργός του προγράμματος ή ο υπεύθυνος για την εκπαίδευσή του;

ΣΤΟ ΠΕΔΙΟ του ιατροτεχνολογικού εξοπλισμού, η δυνατότητα της Τεχνητής Νοημοσύνης να διδάσκεται συνεχώς (machine learning) και να εξελίσσει τη λειτουργία της οδηγεί σε περαιτέρω νομικά προβλήματα. Στον βαθμό που η Τεχνητή Νοημοσύνη σήμερα νοείται ως ιατρικός εξοπλισμός σύμφωνα με τον Ευρωπαϊκό Κανονισμό 2017/745, ερωτάται ποιο πρόγραμμα έχει αδειοδοτηθεί; Το αρχικό ή αυτό που έχει πια απορροφήσει χιλιάδες νέα δεδομένα;

ΕΝΑ ΤΡΙΤΟ σημείο κριτικής αφορά την πιθανότητα εξασθένησης της επαγρύπνησης του ιατρικού προσωπικού. Η κατά μέσο όρο εντυπωσιακής ταχύτητας και ακρίβειας επεξεργασίας γνώση και εκτέλεση των υπηρεσιών από την Τεχνητή Νοημοσύνη αναμένεται να οδηγήσει στο πρόβλημα της λεγόμενης automation bias των παρόχων της ιατρικής υπηρεσίας, δηλαδή της υπερβολικής εμπιστοσύνης στην τεχνολογία, εκεί όπου η εμπιστοσύνη του ασθενούς είναι έντονα προσωπική.

Η ΚΡΙΤΙΚΗ της ηθικής διάστασης ενσωμάτωσης της Τεχνητής Νοημοσύνης στις ιατρικές υπηρεσίες είναι πολυποίκιλη. Αξίζει να αναφερθούμε σε δύο παραδείγματα. Το πρώτο έχει να κάνει με αυτό που αναφέραμε ως black box. Ό,τι καθιστά δυσεπίλυτο το πρόβλημα της ευθύνης, ενδέχεται να οδηγήσει και σε μερική αδυναμία του γιατρού να κατανοήσει τη διάγνωση της Τεχνητής Νοημοσύνης και ως εκ τούτου να την εξηγήσει στον ασθενή. Αυτό οδηγεί σε ελλείψεις στην πληροφόρηση του ασθενούς και τελικά σε εκπτώσεις όσον αφορά τη δική του αυτονομία και αυτοδιάθεση. Μία ακόμη κριτική έχει να κάνει και με την περιβόητη εικόνα του «ρομπότ» που θα αναλάβει τη φροντίδα του ασθενούς, στο πεδίο της περίθαλψης. Η συζήτηση συμπυκνώνεται στον κίνδυνο εξάλειψης του ανθρώπινου στοιχείου (dehumanization). Υπάρχει όμως και αντίλογος, που επιτρέπει και ευρύτερα συμπεράσματα. Ειδικά στο πεδίο της περίθαλψης έρευνες δείχνουν πως δεν έχει εκφραστεί ενδιαφέρον για το ανθρωπόμορφο ρομπότ που θα αναλάβει την περίθαλψη ασθενών. Εφόσον, όμως, δεν διαφαίνεται κοινωνική ανάγκη προς τούτο, η κριτική σε αυτό το πεδίο στρέφεται ως εκ τούτου εύλογα στις τεράστιες επενδύσεις δημόσιων και ιδιωτικών πόρων στο συγκεκριμένο πεδίο.

ΤΑ ΠΑΡΑΔΕΙΓΜΑΤΑ κριτικής που αναφέρθηκαν είναι τα ελάχιστα δυνατά. Αυτό, βέβαια, έχει να κάνει με το γεγονός πως η έρευνα στο πεδίο της Τεχνητής Νοημοσύνης είναι ακόμα στην αρχή, όσο προχωρημένη κι αν είναι στο τεχνολογικό πεδίο. Μένει να αναδειχθούν ακόμη πλείστες πιθανές συνέπειες και λύσεις στο κοινωνικό πεδίο. Για παράδειγμα, στο πεδίο της ιατρικής ευθύνης οφείλει ο γιατρός για την παροχή της ιατρικής υπηρεσίας να προσφεύγει στη χρήση Τεχνητής Νοημοσύνης ή μήπως η προσφυγή σε εφαρμογές Τεχνητής Νοημοσύνης αποτελεί παραβίαση των υποχρεώσεών του; Στην εφαρμογή της τεχνολογίας άνευ ΤΝ η πολυπλοκότητα ήταν πάντα εξίσου δεδομένη, αλλά ελέγξιμη. Το input καθορίζει το output, η εντολή, το αποτέλεσμα. Το τυχόν σφάλμα οριζόταν ευλόγως ως σφάλμα τεχνολογικό. Στην περίπτωση, όμως, της ΤΝ η απόκλιση του αποτελέσματος από την εντολή είναι σε αυτό το πλαίσιο προγραμματισμένη. Δεν αποτελεί σφάλμα της μηχανής, οδηγεί όμως σε βλάβες, οι οποίες στο πεδίο των ιατρικών υπηρεσιών πιθανά να είναι μοιραίες. Πώς αντιδρά κανείς σε αυτό, πώς εντοπίζει κανείς τον υπεύθυνο και πώς μειώνει κανείς τους κινδύνους; Η πολυπλοκότητα ταυτόχρονα αυξάνει το κόστος: η Ευρωπαϊκή Επιτροπή υπολογίζει την αύξηση του κόστους για τις επιχειρήσεις από 8,24% – 13,24% επί του συνολικού κόστους του εκάστοτε συστήματος AI, ώστε η Τεχνητή Νοημοσύνη να μπορεί να ρυθμιστεί επαρκώς (ρυθμιστικό κόστος). Αυτό, βέβαια, θα μπορούσε να αποτελέσει τροχοπέδη για την ανάπτυξη μικρότερων, συνήθως καινοτόμων επιχειρήσεων στον τομέα αυτό. Το (δημοσιονομικό) κόστος για την ενίσχυση των αρχών εποπτείας αυτών των λειτουργιών δεν υπολογίζεται καν. Και πάλι εδώ τίθεται το ερώτημα της πολιτικής στόχευσης: Ποια απ’ όλες τις δυνατότητες της Τεχνητής Νοημοσύνης ενισχύουμε;