Η πρόσφατη αύξηση της δημοτικότητας των εργαλείων τεχνητής νοημοσύνης όπως το ChatGPT αναγκάζει την επιστημονική κοινότητα να αναλογιστεί τη θέση της στην επιστημονική βιβλιογραφία. Διάσημα περιοδικά όπως το Science και το Nature προσπάθησαν να περιορίσουν ή να απαγορεύσουν τη χρήση τεχνητής νοημοσύνης στις υποβολές, αλλά δυσκολεύονται να επιβάλουν λόγω του πόσο δύσκολο είναι να ανιχνεύσουμε γλώσσα που δημιουργείται από μηχανές.
Επειδή η τεχνητή νοημοσύνη εξελίσσεται περισσότερο στη μίμηση της ανθρώπινης γλώσσας, οι ερευνητές στο Πανεπιστήμιο του Σικάγο ενδιαφέρθηκαν να μάθουν πόσο συχνά χρησιμοποιούν οι συγγραφείς την τεχνητή νοημοσύνη και πόσο καλά μπορεί να παράγει πειστικά επιστημονικά άρθρα. Σε μια μελέτη που δημοσιεύτηκε στο Journal of Clinical Oncology Clinical Cancer Informatics, το Σάββατο 1 Ιουνίου, ο Frederick Howard, MD, και οι συνεργάτες του αξιολόγησαν κείμενο από περισσότερες από 15.000 περιλήψεις από την ετήσια συνάντηση της Αμερικανικής Εταιρείας Κλινικής Ογκολογίας (ASCO) από το 2021 έως το 2023 χρησιμοποιώντας πολλά εμπορικοί ανιχνευτές περιεχομένου AI.
Βρήκαν ότι υπήρχαν περίπου διπλάσιες περιλήψεις που χαρακτηρίστηκαν ότι περιείχαν περιεχόμενο τεχνητής νοημοσύνης το 2023 σε σύγκριση με το 2021 και το 2022 – υποδηλώνοντας ένα σαφές μήνυμα ότι οι ερευνητές χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης στην επιστημονική γραφή. Είναι ενδιαφέρον ότι οι ανιχνευτές περιεχομένου ήταν πολύ καλύτεροι στη διάκριση του κειμένου που δημιουργήθηκε από παλαιότερες εκδόσεις chatbots AI από ανθρώπινο γραπτό κείμενο, αλλά ήταν λιγότερο ακριβείς στην αναγνώριση κειμένου από τα νεότερα, πιο ακριβή μοντέλα τεχνητής νοημοσύνης ή μείγματα ανθρώπινου κειμένου και κειμένου που δημιουργήθηκε από AI .
Καθώς η χρήση της τεχνητής νοημοσύνης στην επιστημονική γραφή πιθανότατα θα αυξηθεί με την ανάπτυξη πιο αποτελεσματικών μοντέλων γλώσσας τεχνητής νοημοσύνης τα επόμενα χρόνια, ο Χάουαρντ και οι συνεργάτες του προειδοποιούν ότι είναι σημαντικό να θεσπιστούν διασφαλίσεις για να διασφαλιστεί ότι στην επιστημονική εργασία περιλαμβάνονται μόνο πραγματικά ακριβείς πληροφορίες. την τάση των μοντέλων AI να γράφουν αληθοφανείς αλλά εσφαλμένες δηλώσεις.
Κατέληξαν επίσης στο συμπέρασμα ότι, αν και οι ανιχνευτές περιεχομένου τεχνητής νοημοσύνης δεν θα φτάσουν ποτέ την τέλεια ακρίβεια, θα μπορούσαν να χρησιμοποιηθούν ως εργαλείο ελέγχου για να υποδείξουν ότι το περιεχόμενο που παρουσιάζεται απαιτεί πρόσθετο έλεγχο από τους αναθεωρητές, αλλά δεν θα πρέπει να χρησιμοποιούνται ως το μοναδικό μέσο για την αξιολόγηση του περιεχομένου τεχνητής νοημοσύνης σε επιστημονική γραφή.