Υγειονομική περίθαλψη: Φανταστείτε ότι βρίσκεστε στη λίστα αναμονής για μια μη επείγουσα επέμβαση. Σας επισκέφτηκαν στην κλινική πριν από μερικούς μήνες, αλλά ακόμη δεν έχετε ημερομηνία για τη διαδικασία. Είναι εξαιρετικά απογοητευτικό, αλλά φαίνεται ότι θα πρέπει απλώς να περιμένετε. Ωστόσο, η χειρουργική ομάδα του νοσοκομείου μόλις ήρθε σε επαφή μέσω ενός chatbot.
Το chatbot θέτει ορισμένες ερωτήσεις ελέγχου σχετικά με το εάν τα συμπτώματά σας έχουν επιδεινωθεί από την τελευταία φορά που σας είδαν και εάν σας εμποδίζουν να κοιμηθείτε, να εργαστείτε ή να κάνετε τις καθημερινές σας δραστηριότητες. Τα συμπτώματά σας είναι σχεδόν τα ίδια, αλλά μέρος σας αναρωτιέται αν πρέπει να απαντήσετε ναι. Μετά από όλα, ίσως αυτό θα σας κάνει να μπείτε στη λίστα ή τουλάχιστον να μπορέσετε να μιλήσετε σε κάποιον. Και τέλος πάντων, δεν είναι σαν να είναι πραγματικό πρόσωπο. Η παραπάνω κατάσταση βασίζεται σε chatbots που χρησιμοποιούνται ήδη στο NHS για τον εντοπισμό ασθενών που δεν χρειάζεται πλέον να βρίσκονται σε λίστα αναμονής ή που πρέπει να δοθεί προτεραιότητα. Υπάρχει τεράστιο ενδιαφέρον για τη χρήση μεγάλων γλωσσικών μοντέλων (όπως το ChatGPT) για την αποτελεσματική διαχείριση των επικοινωνιών στην υγειονομική περίθαλψη (για παράδειγμα, συμβουλές συμπτωμάτων, διαλογή και διαχείριση ραντεβού). Αλλά όταν αλληλεπιδρούμε με αυτούς τους εικονικούς πράκτορες, ισχύουν τα συνήθη ηθικά πρότυπα; Είναι λάθος —ή τουλάχιστον είναι τόσο λάθος— αν προσεγγίσουμε μια συνομιλητική τεχνητή νοημοσύνη; Υπάρχουν ψυχολογικές ενδείξεις ότι οι άνθρωποι είναι πολύ πιο πιθανό να είναι ανέντιμοι εάν συνειδητά αλληλεπιδρούν με έναν εικονικό πράκτορα. Σε ένα πείραμα, ζητήθηκε από τους ανθρώπους να ρίξουν ένα νόμισμα και να αναφέρουν τον αριθμό των κεφαλών. (Θα μπορούσαν να λάβουν υψηλότερη αποζημίωση αν είχαν πετύχει μεγαλύτερο αριθμό.) Το ποσοστό εξαπάτησης ήταν τρεις φορές υψηλότερο εάν αναφέρονταν σε μια μηχανή παρά σε έναν άνθρωπο. Αυτό υποδηλώνει ότι μερικοί άνθρωποι θα ήταν πιο διατεθειμένοι να πουν ψέματα σε ένα chatbot στη λίστα αναμονής. Ένας πιθανός λόγος που οι άνθρωποι είναι πιο ειλικρινείς με τους ανθρώπους είναι λόγω της ευαισθησίας τους στο πώς τους αντιλαμβάνονται οι άλλοι. Το chatbot δεν πρόκειται να σας υποτιμήσει, να σας κρίνει ή να μιλήσει σκληρά για εσάς. Αλλά θα μπορούσαμε να θέσουμε μια βαθύτερη ερώτηση σχετικά με το γιατί το ψέμα είναι λάθος και εάν ένας εικονικός συνομιλητής το αλλάζει αυτό.
Η ηθική του ψέματος
Υπάρχουν διάφοροι τρόποι με τους οποίους μπορούμε να σκεφτούμε την ηθική του ψέματος. Το ψέμα μπορεί να είναι κακό γιατί προκαλεί κακό σε άλλους ανθρώπους. Τα ψέματα μπορεί να είναι βαθιά πληγωμένα σε ένα άλλο άτομο. Μπορούν να αναγκάσουν κάποιον να ενεργήσει βάσει ψευδών πληροφοριών ή να καθησυχαστεί εσφαλμένα. Μερικές φορές, τα ψέματα μπορεί να βλάψουν επειδή υπονομεύουν την εμπιστοσύνη κάποιου άλλου στους ανθρώπους γενικότερα. Αλλά αυτοί οι λόγοι συχνά δεν ισχύουν για το chatbot. Τα ψέματα μπορούν να αδικήσουν ένα άλλο άτομο, ακόμη κι αν δεν προκαλούν κακό. Αν ηθελημένα εξαπατήσουμε ένα άλλο άτομο, δυνητικά αποτυγχάνουμε να σεβαστούμε τη λογική του δράση ή να το χρησιμοποιήσουμε ως μέσο για έναν σκοπό. Αλλά δεν είναι ξεκάθαρο ότι μπορούμε να εξαπατήσουμε ή να αδικήσουμε ένα chatbot, αφού δεν έχουν μυαλό ή ικανότητα λογικής. Το ψέμα μπορεί να είναι κακό για εμάς γιατί υπονομεύει την αξιοπιστία μας. Η επικοινωνία με άλλους ανθρώπους είναι σημαντική. Αλλά όταν εν γνώσει μας κάνουμε ψευδείς δηλώσεις, μειώνουμε την αξία, στα μάτια των άλλων, της μαρτυρίας μας. Για αυτόν που εκφράζει επανειλημμένα ψέματα, όλα αυτά που λένε στη συνέχεια τίθενται υπό αμφισβήτηση. Αυτός είναι μέρος του λόγου που νοιαζόμαστε για το ψέμα και την κοινωνική μας εικόνα. Αλλά εάν οι αλληλεπιδράσεις μας με το chatbot δεν καταγραφούν και κοινοποιηθούν (για παράδειγμα, σε ανθρώπους), τα ψέματά μας στο chatbot δεν θα έχουν αυτό το αποτέλεσμα. Το ψέμα είναι, επίσης, κακό για εμάς γιατί μπορεί να οδηγήσει τους άλλους να είναι αναληθείς απέναντί μας με τη σειρά τους. (Γιατί οι άνθρωποι να είναι ειλικρινείς μαζί μας αν δεν θα είμαστε ειλικρινείς μαζί τους;) Αλλά και πάλι, αυτό είναι απίθανο να είναι συνέπεια του ψέματος σε ένα chatbot. Αντίθετα, αυτός ο τύπος εφέ θα μπορούσε να είναι εν μέρει ένα κίνητρο για να πει ψέματα σε ένα chatbot, καθώς οι άνθρωποι μπορεί να έχουν επίγνωση της αναφερόμενης τάσης του ChatGPT και παρόμοιων πρακτόρων να συνδιαλέγονται.
Δικαιοσύνη
Φυσικά, το ψέμα μπορεί να είναι λάθος για λόγους δικαιοσύνης. Αυτός είναι δυνητικά ο πιο σημαντικός λόγος για τον οποίο είναι λάθος να λέμε ψέματα σε ένα chatbot. Εάν μετακινηθήκατε στη λίστα αναμονής λόγω ψέματος, κάποιος άλλος θα εκτοπιζόταν άδικα. Τα ψέματα δυνητικά γίνονται μια μορφή απάτης εάν κερδίσετε ένα αθέμιτο ή παράνομο κέρδος ή στερήσετε από κάποιον άλλο ένα νόμιμο δικαίωμα. Οι ασφαλιστικές εταιρείες είναι ιδιαίτερα πρόθυμες να το τονίσουν αυτό όταν χρησιμοποιούν chatbots σε νέες ασφαλιστικές εφαρμογές. Κάθε φορά που έχετε ένα πραγματικό όφελος από ένα ψέμα σε μια αλληλεπίδραση chatbot, ο ισχυρισμός σας για αυτό το όφελος είναι δυνητικά ύποπτος. Η ανωνυμία των διαδικτυακών αλληλεπιδράσεων μπορεί να οδηγήσει σε μια αίσθηση ότι κανείς δεν θα μάθει ποτέ. Αλλά πολλές αλληλεπιδράσεις chatbot, όπως οι εφαρμογές ασφάλισης, καταγράφονται. Μπορεί να είναι εξίσου πιθανό, ή ακόμη πιο πιθανό, να εντοπιστεί η απάτη.
Αρετή
Έχω επικεντρωθεί στις κακές συνέπειες του ψέματος και στους ηθικούς κανόνες ή νόμους που μπορεί να παραβιάζονται όταν λέμε ψέματα. Αλλά υπάρχει ένας ακόμη ηθικός λόγος που το ψέμα είναι λάθος. Αυτό σχετίζεται με τον χαρακτήρα μας και τον τύπο του ατόμου που είμαστε. Αυτό συχνά αποτυπώνεται στην ηθική σημασία της αρετής. Εκτός εάν υπάρχουν εξαιρετικές περιστάσεις, μπορεί να πιστεύουμε ότι πρέπει να είμαστε ειλικρινείς στην επικοινωνία μας, ακόμη κι αν γνωρίζουμε ότι αυτό δεν θα βλάψει κανέναν ή δεν θα παραβιάσει κανέναν κανόνα. Ένας ειλικρινής χαρακτήρας θα ήταν καλός για λόγους που έχουν ήδη αναφερθεί, αλλά είναι επίσης δυνητικά καλός από μόνος του. Μια αρετή της ειλικρίνειας είναι επίσης αυτοενισχυτική: αν καλλιεργήσουμε την αρετή, βοηθάει να μειωθεί ο πειρασμός του ψέματος. Αυτό οδηγεί σε ένα ανοιχτό ερώτημα σχετικά με το πώς αυτοί οι νέοι τύποι αλληλεπιδράσεων θα αλλάξουν τον χαρακτήρα μας γενικότεrρα. Οι αρετές που ισχύουν για την αλληλεπίδραση με chatbots ή εικονικούς πράκτορες μπορεί να είναι διαφορετικές από ό,τι όταν αλληλεπιδρούμε με πραγματικούς ανθρώπους. Μπορεί να μην είναι πάντα λάθος να λέμε ψέματα σε ένα chatbot. Αυτό μπορεί με τη σειρά του να μας οδηγήσει στην υιοθέτηση διαφορετικών προτύπων για την εικονική επικοινωνία. Αλλά αν συμβεί, μια ανησυχία είναι αν μπορεί να επηρεάσει την τάση μας να είμαστε ειλικρινείς στην υπόλοιπη ζωή μας.