Η εμπειρία μου στην ιατρική με επιτρέπει να διακρίνω την αληθινή καινοτομία από την υποβόσκουσα επανακατηγοριοποίηση που αλλάζει θεμελιωδώς την πρακτική, ενώ φαίνεται να μην έχει αλλάξει. Τον τελευταίο καιρό, η τεχνητή νοημοσύνη (AI) έχει προσελκύσει μεγάλη προσοχή, μεταξύ άλλων και λόγω της ευρέως διαδεδομένης δήλωσης ότι η AI έχει «νομιμοποιηθεί νομικά να ασκεί ιατρική» στις Ηνωμένες Πολιτείες. Αν ληφθεί κυριολεκτικά, αυτή η δήλωση είναι ανακριβής. Κανένα ιατρικό συμβούλιο δεν έχει χορηγήσει άδεια σε μηχανή. Κανένα αλγοριθμικό πρόγραμμα δεν έχει δώσει όρκο, δεν έχει αποδεχθεί εμπιστευτική υποχρέωση ούτε έχει αναλάβει προσωπική ευθύνη για βλάβες ασθενών. Κανένας ρομπότ-γιατρός δεν ανοίγει κλινική, δεν χρεώνει ασφαλιστικά ταμεία ή δεν εμφανίζεται ενώπιον ενόρκων για αμέλεια.
Ωστόσο, η παρατήρηση αυτή μόνο δεν αποκαλύπτει το ευρύτερο ζήτημα. Οι νομικές έννοιες ευθύνης επαναπροσδιορίζονται σήμερα, συχνά χωρίς την ενημέρωση του κοινού.
Μια σημαντική μεταμόρφωση βρίσκεται σε εξέλιξη, που απαιτεί κάτι περισσότερο από αδιάκριτη απόρριψη ή άκριτο τεχνολογικό ενθουσιασμό. Η τρέχουσα εξέλιξη δεν είναι η αδειοδότηση της τεχνητής νοημοσύνης ως γιατρός, αλλά η σταδιακή διάβρωση του βασικού ορίου της ιατρικής: η εγγενής σύνδεση μεταξύ κλινικής κρίσης και ανθρώπινης ευθύνης. Η κλινική κρίση περιλαμβάνει τη λήψη ενημερωμένων αποφάσεων προσαρμοσμένων στις μοναδικές ανάγκες και περιστάσεις κάθε ασθενούς, απαιτώντας ενσυναίσθηση, διαίσθηση και βαθιά κατανόηση της ιατρικής ηθικής.
Η ανθρώπινη ευθύνη αναφέρεται στην ευθύνη που αναλαμβάνουν οι επαγγελματίες υγείας για αυτές τις αποφάσεις και τα αποτελέσματά τους. Αυτή η διάβρωση δεν προκύπτει από δραματική νομοθεσία ή δημόσια συζήτηση, αλλά συμβαίνει αθόρυβα μέσω πιλοτικών προγραμμάτων, ερμηνειών κανονισμών και γλώσσας που σκόπιμα θολώνει την ευθύνη. Μόλις αυτό το όριο διαλυθεί, η ιατρική μεταμορφώνεται με τρόπους δύσκολα αναστρέψιμους.
Το κύριο ζήτημα δεν είναι αν η AI μπορεί να ξαναγεμίσει συνταγές ή να εντοπίσει μη φυσιολογικά εργαστηριακά αποτελέσματα. Η ιατρική χρησιμοποιεί εργαλεία εδώ και πολύ καιρό, και οι επαγγελματίες υγείας γενικά καλωσορίζουν βοήθεια που μειώνει τα διοικητικά καθήκοντα ή βελτιώνει την αναγνώριση προτύπων. Το πραγματικό πρόβλημα είναι αν η ιατρική κρίση — η λήψη αποφάσεων για τις σωστές ενέργειες, τους ασθενείς και τους κινδύνους — μπορεί να θεωρηθεί ως αποτέλεσμα υπολογιστή, αποκομμένο από ηθική ευθύνη. Ιστορικά, προσπάθειες αποσύνδεσης της κρίσης από την ευθύνη έχουν συχνά προκαλέσει βλάβες χωρίς ανάληψη ευθύνης.
Οι πρόσφατες εξελίξεις ξεκαθαρίζουν τις ρίζες της σύγχυσης. Σε αρκετές πολιτείες, περιορισμένα πιλοτικά προγράμματα επιτρέπουν πλέον σε συστήματα AI να βοηθούν στην ανανέωση συνταγών για σταθερές χρόνιες παθήσεις, υπό αυστηρά καθορισμένα πρωτόκολλα. Σε ομοσπονδιακό επίπεδο, προτάσεις νόμου έχουν εξετάσει αν η τεχνητή νοημοσύνη θα μπορούσε να θεωρηθεί «επαγγελματίας» για συγκεκριμένες νομικές χρήσεις, εφόσον ρυθμίζεται κατάλληλα. Αυτές οι πρωτοβουλίες συνήθως παρουσιάζονται ως πρακτικές απαντήσεις σε έλλειψη γιατρών, καθυστερήσεις πρόσβασης και διοικητικές αναποτελεσματικότητες. Ενώ καμία δεν ορίζει ρητά την AI ως γιατρό, συνολικά κανονικοποιούν την πιο ανησυχητική υπόθεση ότι οι ιατρικές ενέργειες μπορούν να συμβούν χωρίς σαφή ανθρώπινο αποφασιστή.
Στην πράξη, αυτή η διάκριση είναι θεμελιώδης. Η ιατρική ορίζεται όχι από την εκτέλεση μηχανικών εργασιών, αλλά από την ανάθεση ευθύνης όταν τα αποτελέσματα είναι αρνητικά. Η συνταγογράφηση είναι απλή· η ανάληψη ευθύνης για τις συνέπειες — ειδικά λαμβάνοντας υπόψη συννοσηρότητες, κοινωνικό πλαίσιο, αξίες ασθενούς ή ελλιπή πληροφορία — είναι πολύ πιο πολύπλοκη. Στην καριέρα μου, η ευθύνη αυτή ανήκε πάντα σε έναν άνθρωπο που μπορούσε να αμφισβητηθεί, να διορθωθεί και να θεωρηθεί υπεύθυνος. Όταν ο Δρ. Σμιθ κάνει λάθος, η οικογένεια ξέρει ποιον να επικοινωνήσει, διασφαλίζοντας άμεση σύνδεση με ανθρώπινη ευθύνη. Κανένας αλγόριθμος, όση σοφία και αν διαθέτει, δεν μπορεί να αναλάβει αυτόν τον ρόλο.
Ο κύριος κίνδυνος δεν είναι τεχνολογικός, αλλά ρυθμιστικός και φιλοσοφικός. Αυτή η μετάβαση αντιπροσωπεύει μια μετατόπιση από την αρετή στην τυπική διαδικασία. Όταν νομοθέτες και θεσμοί επανακαθορίζουν τη λήψη ιατρικών αποφάσεων ως λειτουργία συστημάτων αντί για προσωπικές πράξεις, αλλάζει το ηθικό πλαίσιο της ιατρικής. Η ευθύνη διαχέεται, η βλάβη είναι πιο δύσκολο να αποδοθεί, και η υπευθυνότητα μετατοπίζεται από τον γιατρό στις διαδικασίες, από την κρίση στη συμμόρφωση με τα πρωτόκολλα. Όταν συμβαίνουν λάθη, η επικρατούσα εξήγηση γίνεται ότι «το σύστημα ακολούθησε τις καθιερωμένες οδηγίες». Η αναγνώριση αυτής της μετάβασης ξεκαθαρίζει τη μετατόπιση από ατομική ηθική κρίση σε μηχανιστική συμμόρφωση.
Αυτός ο προβληματισμός δεν είναι θεωρητικός. Η σύγχρονη υγειονομική περίθαλψη ήδη αντιμετωπίζει προκλήσεις σχετικές με τη διάχυση της ευθύνης. Έχω παρατηρήσει ασθενείς που υπέστησαν βλάβες από αποφάσεις αλγορίθμου να χάνονται ανάμεσα σε διαχειριστές, προμηθευτές και αδιαφανή μοντέλα, χωρίς σαφή απάντηση στο θεμελιώδες ερώτημα: Ποιος πήρε αυτή την απόφαση; Η τεχνητή νοημοσύνη επιταχύνει σημαντικά αυτό το πρόβλημα. Ένας αλγόριθμος δεν μπορεί να δώσει ηθικές εξηγήσεις, να περιορίσει δράσεις με βάση τη συνείδηση, να αρνηθεί ενέργειες λόγω ηθικών ανησυχιών ή να παραδεχθεί λάθος σε ασθενή ή οικογένεια.
Οι υποστηρικτές της μεγαλύτερης αυτονομίας της AI επικαλούνται συχνά την αποτελεσματικότητα ως δικαιολογία. Τα ιατρεία είναι υπερφορτωμένα, οι γιατροί υποφέρουν από εξουθένωση, και οι ασθενείς συχνά περιμένουν μήνες για φροντίδα που θα έπρεπε να διαρκεί λίγα λεπτά. Αυτές οι ανησυχίες είναι νόμιμες. Ωστόσο, η αποτελεσματικότητα μόνη της δεν δικαιολογεί την αλλαγή του ηθικού θεμέλιου της ιατρικής. Τα συστήματα που βελτιστοποιούνται για ταχύτητα και κλίμακα συχνά θυσιάζουν τη λεπτότητα, την κρίση και την ατομική αξιοπρέπεια. Η ιατρική ιστορικά έχει αντισταθεί σε αυτή την τάση, τονίζοντας ότι η φροντίδα είναι πρωτίστως σχέση και όχι συναλλαγή.
Η AI κινδυνεύει να αναστρέψει αυτή τη σχέση. Όταν τα συστήματα παρέχουν φροντίδα αντί για τους ανθρώπους, ο ασθενής δεν συμμετέχει πλέον σε μια συμφωνία με τον γιατρό, αλλά γίνεται μέρος μιας ροής εργασίας. Ο γιατρός αναλαμβάνει ρόλο επιτηρητή του μηχανήματος ή, ακόμα χειρότερα, λειτουργεί ως νομικό προστατευτικό στρώμα που απορροφά ευθύνες για αποφάσεις που δεν έλαβε προσωπικά. Με τον καιρό, η κλινική κρίση υποχωρεί στην τυπική τήρηση πρωτοκόλλων και η ηθική υπευθυνότητα μειώνεται.
Η AI εισάγει επίσης ένα πιο λεπτό και επικίνδυνο πρόβλημα: τη συγκάλυψη της αβεβαιότητας. Η ιατρική ζει στην αβεβαιότητα. Τα στοιχεία είναι πιθανοκρατικά. Οι οδηγίες είναι προσωρινές. Οι ασθενείς σπάνια παρουσιάζονται ως καθαρά δεδομένα. Οι γιατροί εκπαιδεύονται όχι μόνο να ενεργούν, αλλά και να διστάζουν — να αναγνωρίζουν πότε οι πληροφορίες είναι ανεπαρκείς, πότε η παρέμβαση μπορεί να προκαλέσει περισσότερη βλάβη από όφελος ή πότε η σωστή πορεία είναι να περιμένουν. Φανταστείτε ένα σενάριο όπου η AI συστήνει έξοδο από το νοσοκομείο, αλλά ο σύζυγος του ασθενούς φαίνεται φοβισμένος, υπογραμμίζοντας την ένταση μεταξύ αλγοριθμικής απόφασης και ανθρώπινης διαίσθησης. Τέτοιες συγκρούσεις αναδεικνύουν τη σημασία της αβεβαιότητας.
Τα συστήματα AI δεν βιώνουν αβεβαιότητα· παράγουν αποτελέσματα. Όταν είναι λανθασμένα, το κάνουν συχνά με αδικαιολόγητη αυτοπεποίθηση. Αυτό δεν είναι ελάττωμα προγραμματισμού, αλλά εγγενές χαρακτηριστικό στατιστικών μοντέλων. Σε αντίθεση με έμπειρους γιατρούς που εκφράζουν ανοικτά αμφιβολίες, μεγάλα γλωσσικά μοντέλα και συστήματα μηχανικής μάθησης δεν αναγνωρίζουν τα όριά τους. Παράγουν πιθανά απαντήσεις ακόμη και όταν τα δεδομένα είναι ανεπαρκή. Στην ιατρική, η πιθανολογική υπόθεση χωρίς τεκμηρίωση μπορεί να είναι επικίνδυνη.
Καθώς τα συστήματα ενσωματώνονται νωρίτερα στις κλινικές ροές εργασίας, τα αποτελέσματά τους επηρεάζουν όλο και περισσότερο τις επόμενες αποφάσεις. Με τον χρόνο, οι γιατροί μπορεί να αρχίσουν να εμπιστεύονται τις συστάσεις όχι λόγω εγκυρότητας, αλλά επειδή έχουν γίνει κανονικοποιημένες. Η κρίση μετατοπίζεται σταδιακά από ενεργή σκέψη σε παθητική αποδοχή. Σε τέτοιες συνθήκες, το «human-in-the-loop» λειτουργεί περισσότερο ως συμβολικό μέτρο ασφάλειας.
Οι υποστηρικτές υποστηρίζουν συχνά ότι η AI θα «ενισχύσει» τους γιατρούς αντί να τους αντικαταστήσει. Ωστόσο, αυτή η διαβεβαίωση είναι επισφαλής. Μόλις η AI δείξει οφέλη σε αποτελεσματικότητα, οι οικονομικές και θεσμικές πιέσεις τείνουν να οδηγούν σε αυξημένη αυτονομία. Αν ένα σύστημα μπορεί να ανανεώνει συνταγές με ασφάλεια, σύντομα μπορεί να επιτραπεί να τις εκδίδει. Αν μπορεί να διαγνώσει κοινές παθήσεις με ακρίβεια, η ανάγκη για επανεξέταση από γιατρό αμφισβητείται. Αν υπερτερεί των ανθρώπων σε ελεγχόμενα τεστ, η ανεκτικότητα στη διακύμανση των ανθρώπων μειώνεται.
Δεδομένων αυτών των τάσεων, η εφαρμογή συγκεκριμένων ασφαλειών είναι απαραίτητη. Για παράδειγμα, υποχρεωτικοί έλεγχοι αποκλίσεων στο 5% των αποφάσεων AI θα μπορούσαν να λειτουργήσουν ως πρακτικός έλεγχος, διασφαλίζοντας τη συμφωνία μεταξύ συστάσεων AI και ανθρώπινης κρίσης, ενώ παρέχουν στους ρυθμιστές και τα διοικητικά συμβούλια μετρήσιμα εργαλεία παρακολούθησης.
Αυτά τα ερωτήματα δεν τίθενται με κακή πρόθεση· προκύπτουν φυσιολογικά σε συστήματα επικεντρωμένα στη μείωση κόστους και στην κλιμάκωση. Ωστόσο, δείχνουν ένα μέλλον όπου η ανθρώπινη κρίση γίνεται εξαίρεση αντί για κανόνα. Σε ένα τέτοιο σενάριο, τα άτομα με πόρους θα συνεχίσουν να λαμβάνουν ανθρώπινη φροντίδα, ενώ οι υπόλοιποι θα κατευθύνονται μέσω αυτοματοποιημένων διαδικασιών. Θα προκύψει μια ιατρική δύο ταχυτήτων, όχι λόγω ιδεολογίας, αλλά λόγω βελτιστοποίησης.
Αυτό που καθιστά αυτή τη στιγμή ιδιαίτερα επικίνδυνη είναι η απουσία σαφών γραμμών ευθύνης. Όταν μια απόφαση AI βλάψει έναν ασθενή, ποιος φέρει την ευθύνη; Ο γιατρός που επιτηρεί ονομαστικά το σύστημα; Ο οργανισμός που το εγκατέστησε; Ο προμηθευτής που εκπαίδευσε το μοντέλο; Ο ρυθμιστής που ενέκρινε τη χρήση του; Χωρίς σαφείς απαντήσεις, η ευθύνη εξατμίζεται. Και όταν η ευθύνη εξατμίζεται, η εμπιστοσύνη ακολουθεί γρήγορα.
Η ιατρική εξαρτάται θεμελιωδώς από την εμπιστοσύνη. Οι ασθενείς εμπιστεύονται το σώμα, τους φόβους και συχνά τη ζωή τους στους γιατρούς. Αυτή η εμπιστοσύνη δεν μπορεί να μεταβιβαστεί σε έναν αλγόριθμο, όση σοφία και αν διαθέτει. Βασίζεται στη διαβεβαίωση ότι υπάρχει ένας άνθρωπος — κάποιος που μπορεί να ακούσει, να προσαρμοστεί και να αναλάβει ευθύνη για τις πράξεις του.
Η πλήρης απόρριψη της AI δεν είναι αναγκαία. Όταν χρησιμοποιείται με σύνεση, μπορεί να μειώσει διοικητικά βάρη, να αναγνωρίσει πρότυπα που διαφεύγουν από τον άνθρωπο και να υποστηρίξει τη λήψη κλινικών αποφάσεων. Μπορεί να επιτρέψει στους γιατρούς να αφιερώσουν περισσότερο χρόνο στην φροντίδα των ασθενών αντί σε διοικητικές εργασίες. Ωστόσο, η πραγμάτωση αυτού του μέλλοντος απαιτεί σαφή δέσμευση για διατήρηση της ανθρώπινης ευθύνης στον πυρήνα της ιατρικής πρακτικής.
Το «human-in-the-loop» πρέπει να σημαίνει κάτι περισσότερο από συμβολική εποπτεία. Πρέπει να απαιτεί ότι ένας συγκεκριμένος άνθρωπος αναλαμβάνει ευθύνη για κάθε ιατρική απόφαση, κατανοεί τη λογική της και διατηρεί την εξουσία και την υποχρέωση να παρακάμψει τις συστάσεις αλγορίθμου. Πρέπει επίσης να περιλαμβάνει διαφάνεια, αιτιολόγηση, ενημερωμένη συγκατάθεση ασθενών και δέσμευση επένδυσης σε ανθρώπινους γιατρούς αντί να τους αντικαθιστά με AI.
Ο κύριος κίνδυνος δεν είναι η υπερβολική δύναμη της AI, αλλά η προθυμία των θεσμών να παραχωρήσουν την ευθύνη. Στην επιδίωξη αποτελεσματικότητας και καινοτομίας, υπάρχει ο κίνδυνος η ιατρική να μετατραπεί σε τεχνικά εξελιγμένο, διοικητικά απλοποιημένο τομέα, αλλά χωρίς ηθική ουσία.
Καθώς σκεφτόμαστε το μέλλον, είναι ουσιώδες να αναρωτηθούμε: Τι είδους θεραπευτή φανταζόμαστε στο πλευρό του ασθενούς το 2035; Αυτή η ερώτηση απαιτεί συλλογική ηθική φαντασία, ενθαρρύνοντας μας να διαμορφώσουμε ένα μέλλον όπου η ανθρώπινη ευθύνη και η συμπονετική φροντίδα παραμένουν στον πυρήνα της ιατρικής. Η κινητοποίηση συλλογικής δράσης θα είναι κρίσιμη για να εξασφαλιστεί ότι οι πρόοδοι της AI ενισχύουν, αντί να υπονομεύουν, αυτές τις θεμελιώδεις αξίες.
Η τεχνητή νοημοσύνη δεν έχει αδειοδοτηθεί να ασκεί ιατρική. Αλλά η ιατρική ανασχεδιάζεται σιωπηλά γύρω από συστήματα που δεν φέρουν ηθικό βάρος. Αν αυτή η διαδικασία συνεχιστεί ανεξέλεγκτη, μπορεί μια μέρα να ανακαλύψουμε ότι ο γιατρός δεν αντικαταστάθηκε από μηχανή, αλλά από ένα πρωτόκολλο — και ότι, όταν συμβεί βλάβη, δεν υπάρχει κανείς να λογοδοτήσει.
Αυτό δεν θα ήταν πρόοδος. Θα ήταν παραίτηση.
του Joseph Varon
*Ο Joseph Varon, MD, είναι εντατικός ιατρός, καθηγητής και Πρόεδρος της Independent Medical Alliance. Έχει συγγράψει πάνω από 980 δημοσιεύσεις με κριτές και είναι Αρχισυντάκτης του Journal of Independent Medicine
Πιο Δημοφιλή
Πιο Πρόσφατα
Μαρία Καριστιανού: Προσπάθησα για ενότητα παρά τις συνεχείς “τρικλοποδιές”
Όταν οι γιατροί αντικαθίστανται από ένα πρωτόκολλο