Τεχνολογία

AI αποφάσεις: Ο ρόλος του AI στη λήψη κλινικών αποφάσεων

AI αποφάσεις: Ο ρόλος του AI στη λήψη κλινικών αποφάσεων
AI αποφάσεις: Είναι απίθανο μια πρόβλεψη τεχνητής νοημοσύνης να είναι η μοναδική πηγή πληροφοριών μέσω της οποίας ένας κλινικός ιατρός λαμβάνει μια απόφαση, ιδιαίτερα καθώς η απόδοσή του δεν είναι ποτέ 100% τέλεια.

Καθώς ο αντίκτυπος της τεχνητής νοημοσύνης (AI) αυξάνεται στον κόσμο μας, το Πανεπιστήμιο της Αδελαΐδας διερευνά τον ρόλο που μπορεί να διαδραματίσει η τεχνολογία στον τομέα της υγείας, ιδιαίτερα στη λήψη κλινικών αποφάσεων και εξηγήσεων. Η αναλυτική ανασκόπηση στο Future Healthcare Journal σκιαγραφεί μια από τις σημαντικότερες προκλήσεις στην τεχνητή νοημοσύνη υγείας – την επεξήγηση – και διερευνά εάν οι εξηγήσεις συγκεκριμένων προβλέψεων για άτομα είναι απολύτως απαραίτητες για τη λήψη μιας καλής απόφασης.

«Το πεδίο της επεξήγησης που εστιάζει σε επεξηγήσεις σε ατομικό επίπεδο είναι αναπτυσσόμενο», δήλωσε η Δρ. Melissa McCradden, από το Αυστραλιανό Ινστιτούτο Μηχανικής Μάθησης (AIML) του Πανεπιστημίου της Αδελαΐδας. «Είμαστε αισιόδοξοι για το πού μπορεί να φτάσει το πεδίο, αλλά με το πού βρισκόμαστε αυτή τη στιγμή, η απαίτηση εξηγήσεων σε επίπεδο πρόβλεψης για τη λήψη κλινικών αποφάσεων είναι προβληματική».

Η Δρ. McCradden και ο συν-συγγραφέας της Δρ. Ian Stedman, δικηγόρος και καθηγητής δημόσιας πολιτικής στο Πανεπιστήμιο York στο Τορόντο του Καναδά, υποστηρίζουν ότι μια καλή κλινική απόφαση δεν είναι μόνο αυτή που προωθεί τους στόχους της περίθαλψης, αλλά πρέπει επίσης να είναι νομικά υπεράσπιστος. «Οι κλινικοί γιατροί πρέπει να βαθμονομούν την κρίση τους έναντι ενός ολόκληρου αστερισμού άλλων παραγόντων, ακόμη κι αν χρησιμοποιούν ένα εργαλείο τεχνητής νοημοσύνης που είναι καλά επικυρωμένο και εξαιρετικά ακριβές», είπε ο Δρ Στέντμαν.

Ο Δρ. McCradden, κλινικός ερευνητής στο AI Ethics με το The Hospital Research Foundation Group, Διευθυντής AI στο Women’s and Children’s Health Network και Adjunct Scientist στο The Hospital for Sick Children, είπε ότι υπάρχουν δύο τύποι επεξήγησης – εγγενής επεξήγηση και ανάρτηση – hoc εξηγησιμότητα. Η εγγενής επεξήγηση αναφέρεται στην κατανόηση του τρόπου λειτουργίας του μοντέλου στο σύνολό του και το post hoc αναφέρεται σε προσπάθειες κατανόησης των μέσων με τα οποία δημιουργήθηκε μια συγκεκριμένη πρόβλεψη από το μοντέλο.

“Ορισμένα μοντέλα είναι άμεσα ερμηνεύσιμα, πράγμα που σημαίνει ότι οι πράξεις από τις εισόδους στις εξόδους είναι εύκολο να ακολουθηθούν και να είναι σαφείς, όπως τα δέντρα αποφάσεων. προγραμματιστές», είπε ο Δρ McCradden. “Το θέμα είναι στην τεχνητή νοημοσύνη υγείας, οι κλινικοί γιατροί συνήθως πιστεύουν ότι μια εξήγηση είναι τι παίρνουν όταν βλέπουν κάτι σαν θερμικό χάρτη ή μια πρόβλεψη που συνοδεύεται από τους λόγους που ο ασθενής έλαβε αυτό το αποτέλεσμα. Αυτό είναι κατανοητό αυτό που θέλουν πολλοί κλινικοί γιατροί, αλλά νέα στοιχεία δείχνει ότι μπορεί να τους ωθήσει να λαμβάνουν λιγότερο ακριβείς αποφάσεις όταν το εργαλείο τεχνητής νοημοσύνης είναι εσφαλμένο.”

Η δουλειά τους βασίζεται σε προηγούμενη εργασία του συναδέλφου ερευνητή της AIML, Δρ. Lauren Oakden-Rayner, του οποίου η εργασία σχετικά με τα όρια των μεθόδων επεξήγησης υπογραμμίζει τη γέννηση του πεδίου. Ο Δρ McCradden και ο Dr. Stedman υποστηρίζουν ότι η επεξήγηση από μόνη της δεν πρέπει να χρησιμεύει ως ουσιαστικό μέρος της ηθικής λήψης αποφάσεων. Οι κλινικοί γιατροί καλούνται να εξάγουν συμπεράσματα από στοιχεία και κατανόηση, τοποθετώντας τον ασθενή στο επίκεντρο της διαδικασίας αντί για AI.

«Η συσσώρευση μεγαλύτερου βάρους στην αξία που αποδίδεται στην απόδοση του εργαλείου AI μετατοπίζει περαιτέρω την έμφαση μακριά από τον ασθενή – τις επιθυμίες του, την κουλτούρα του, το περιβάλλον του», είπε ο Δρ Stedman. «Ιστορικά, εύλογες κρίσεις έχουν γίνει με βάση το σύνολο των αποδεικτικών στοιχείων και των πόρων που έχει στη διάθεσή του ο κλινικός ιατρός, με βάση το πλαίσιο της συγκεκριμένης κατάστασης του ασθενούς.

Ο Δρ ΜακΚράντεν και ο Δρ. Στέντμαν κατέληξαν στο συμπέρασμα ότι είναι πολύ απίθανο μια πρόβλεψη τεχνητής νοημοσύνης να είναι η μοναδική πηγή πληροφοριών μέσω της οποίας ένας κλινικός ιατρός λαμβάνει μια απόφαση, ιδιαίτερα καθώς η απόδοσή της δεν είναι ποτέ 100% τέλεια. «Θα είναι, στο άμεσο μέλλον, πάντα απαραίτητο να τριγωνοποιούνται οι πηγές αποδεικτικών στοιχείων για να υποδεικνύεται μια λογική απόφαση», είπε ο Δρ ΜακΚράντεν.

“Με αυτή την έννοια, οι γιατροί θα πρέπει να εξετάσουν πώς, συγκεκριμένα, η απόδοση του εργαλείου τεχνητής νοημοσύνης συμβάλλει στη συνολική κλινική εικόνα. Αλλά πρέπει πάντα να βασιζόμαστε στις επιθυμίες και τα καλύτερα συμφέροντα του ασθενούς.”