
Η υπερβολική εξάρτηση από την τεχνητή νοημοσύνη απειλεί τις κριτικές ικανότητες των γιατρών
Η υπερβολική εξάρτηση από την τεχνητή νοημοσύνη (GenAI) ενδέχεται να υπονομεύσει τις κριτικές ικανότητες των νέων και μελλοντικών γιατρών, ενώ ταυτόχρονα μπορεί να ενισχύσει τις υπάρχουσες προκαταλήψεις και ανισότητες στα δεδομένα. Αυτό προειδοποιεί μια πρόσφατη ανα editorial που δημοσιεύθηκε στο διαδικτυακό περιοδικό BMJ Evidence Based Medicine.
Η ανάγκη για προσοχή και προσαρμογή στη ιατρική εκπαίδευση
Οι συγγραφείς της μελέτης επισημαίνουν ότι τα εργαλεία GenAI χρησιμοποιούνται ήδη ευρέως, ενώ οι θεσμικές πολιτικές και οι κανονιστικές οδηγίες είναι περιορισμένες. Καλούν τους ιατρικούς εκπαιδευτές να είναι προσεκτικοί και να προσαρμόσουν τα προγράμματα σπουδών και την εκπαίδευση ώστε να μειωθούν οι κίνδυνοι που σχετίζονται με αυτήν την τεχνολογία.
Η τεχνητή νοημοσύνη έχει αρχίσει να εφαρμόζεται σε μια πληθώρα καθηκόντων, ωστόσο, η αυξανόμενη εξάρτηση από αυτήν εγκυμονεί κινδύνους για τους φοιτητές ιατρικής και τους εκπαιδευόμενους γιατρούς. Οι συγγραφείς από το Πανεπιστήμιο του Μιζούρι, στην Κολούμπια, ΗΠΑ, αναφέρουν αρκετούς από αυτούς τους κινδύνους:
- Αυτοματοποίηση προκατάληψη: Μη κριτική εμπιστοσύνη στις αυτοματοποιημένες πληροφορίες μετά από παρατεταμένη χρήση.
- Αποφόρτιση γνωστικών διαδικασιών: Μεταφορά της αναζήτησης, αξιολόγησης και σύνθεσης πληροφοριών στην AI, υπονομεύοντας τις κριτικές ικανότητες και τη μνήμη.
- Απώλεια δεξιοτήτων: Η υποβάθμιση δεξιοτήτων είναι ιδιαίτερα σημαντική για τους φοιτητές ιατρικής και τους νέους γιατρούς, οι οποίοι μαθαίνουν τις βασικές ικανότητες.
- Ενίσχυση προκαταλήψεων: Η τεχνητή νοημοσύνη μπορεί να ενισχύσει υπάρχουσες προκαταλήψεις στα δεδομένα.
- Ψευδείς πληροφορίες: Η AI μπορεί να παρέχει πληροφορίες που φαίνονται πειστικές αλλά είναι ανακριβείς.
- Παραβιάσεις ιδιωτικότητας: Ιδιαίτερα σοβαρό ζήτημα για την ευαίσθητη φύση των δεδομένων υγειονομικής περίθαλψης.
Προτάσεις για την αντιμετώπιση των κινδύνων
Οι συγγραφείς προτείνουν διάφορες αλλαγές για να ελαχιστοποιηθούν αυτοί οι κίνδυνοι, όπως η αξιολόγηση της διαδικασίας και όχι μόνο του τελικού προϊόντος στις εκπαιδευτικές αξιολογήσεις, με την υπόθεση ότι οι μαθητές θα έχουν χρησιμοποιήσει την AI.
Επιπλέον, θα πρέπει να σχεδιαστούν αξιολογήσεις κριτικών ικανοτήτων που να αποκλείουν την AI, χρησιμοποιώντας εποπτευόμενους σταθμούς ή αυτοπροσώπως εξετάσεις. Αυτό είναι ιδιαίτερα σημαντικό για την επικοινωνία, την φυσική εξέταση, την ομαδική εργασία και την επαγγελματική κρίση. Οι συγγραφείς προσθέτουν ότι είναι σκόπιμο να αξιολογηθεί η AI ως ικανότητα, καθώς η «δεξιοτήτων δεδομένων και η εκπαίδευση στη σχεδίαση, ανάπτυξη και αξιολόγηση της AI είναι πιο σημαντικές από ποτέ».
Οι εκπαιδευόμενοι γιατροί πρέπει να κατανοήσουν τις αρχές και τις έννοιες που υποστηρίζουν τις δυνάμεις και τις αδυναμίες της AI, καθώς και πού και πώς μπορούν να ενσωματωθούν χρήσιμα τα εργαλεία AI στις κλινικές ροές εργασίας και στα μονοπάτια φροντίδας. Πρέπει επίσης να γνωρίζουν πώς να αξιολογούν την απόδοσή τους και τις ενδεχόμενες προκαταλήψεις με την πάροδο του χρόνου.
Η ευθύνη των ρυθμιστικών φορέων και των επαγγελματικών ενώσεων
Οι ρυθμιστικοί φορείς, οι επαγγελματικές ενώσεις και οι εκπαιδευτικές οργανώσεις παγκοσμίως χρειάζεται επίσης να αναλάβουν δράση, παράγοντας και ενημερώνοντας τακτικά οδηγίες σχετικά με τον αντίκτυπο της AI στην ιατρική εκπαίδευση.
Καταλήγουν οι συγγραφείς: «Η γενετική AI έχει τεκμηριωμένα και καλά ερευνημένα οφέλη, αλλά δεν είναι χωρίς παγίδες, ιδίως στην ιατρική εκπαίδευση και στους αρχάριους μαθητές. Αυτά τα εργαλεία μπορούν να κατασκευάσουν πηγές, να κωδικοποιήσουν προκαταλήψεις, να οδηγήσουν σε υπερβολική εξάρτηση και να έχουν αρνητικές διαταραχές στην εκπαιδευτική πορεία. Τα ιατρικά προγράμματα πρέπει να είναι προσεκτικά σχετικά με αυτούς τους κινδύνους και να προσαρμόσουν τα προγράμματα σπουδών και την εκπαίδευση για να παραμείνουν μπροστά από αυτούς και να μειώσουν την πιθανότητά τους.














