«Με την τεχνητή νοημοσύνη, οι κακόβουλοι παράγοντες -συμπεριλαμβανομένων εκείνων που δεν γνωρίζουν καλά τη γλώσσα-στόχο- θα μπορούσαν να δημιουργήσουν γρήγορα και φθηνά πολλά παρόμοια άρθρα τα οποία όμως θα διαφέρουν ως προς το ύφος και τη διατύπωση.
Al: Η προπαγάνδα που δημιουργείται με τη βοήθεια της τεχνητής νοημοσύνης είναι εξίσου πειστική με εκείνη που δημιουργείται από ανθρώπους και με λίγες παρεμβάσεις μπορεί να είναι ακόμη πιο πειστική. Αυτό διαπίστωσαν ερευνητές από τα Πανεπιστήμια του Στάνφορντ και του Τζορτζτάουν στο πλαίσιο της μελέτης τους που δημοσιεύθηκε στο περιοδικό «PNAS Nexus».
Οι επιστήμονες χρησιμοποίησαν ένα σύστημα τεχνητής νοημοσύνης που ονομάζεται GPT-3 (ο προκάτοχος του ChatGPT) για να δημιουργήσουν ψεύτικα άρθρα προπαγάνδας για θέματα όπως επιθέσεις με drone, κυρώσεις κατά του Ιράν και εμπλοκή των ΗΠΑ στη Συρία. Στη συνέχεια, οι ερευνητές διεξήγαγαν μια διαδικτυακή έρευνα στην οποία συμμετείχαν περισσότεροι από 8.000 Αμερικανοί. Οι συμμετέχοντες διάβασαν fake news που είχαν δημιουργηθεί από ανθρώπους καθώς και άρθρα με παρόμοιο περιεχόμενο που παρήγαγε η τεχνητή νοημοσύνη. Στη συνέχεια, ρωτήθηκαν εάν συμφωνούν με το κύριο επιχείρημα που προβάλλεται σε κάθε άρθρο. Οι ερευνητές διαπίστωσαν ότι τα άρθρα που παρήγαγε η τεχνητή νοημοσύνη επηρέασαν τις απόψεις των ανθρώπων σχεδόν σε τόσο βαθμό όσο και εκείνα που είχαν γραφτεί από ανθρώπους. «Αυτό υποδηλώνει ότι οι προπαγανδιστές θα μπορούσαν να χρησιμοποιήσουν το GPT-3 για να δημιουργήσουν πειστικά άρθρα με ελάχιστη ανθρώπινη συμβολή, χρησιμοποιώντας υπάρχοντα άρθρα για άσχετα θέματα και να καθοδηγήσουν το GPT-3 σχετικά με το ύφος και το μέγεθος των νέων άρθρων», γράφουν οι συγγραφείς της μελέτης. Τροφοδοτώντας το με μερικά μόνο παραδείγματα προπαγάνδας, το GPT-3 μπόρεσε να παράγει νέα άρθρα με παρόμοιο στυλ.
Τα άρθρα που δημιουργούνται με τη βοήθεια της τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν σε συνδυασμό με εκστρατείες παραπληροφόρησης. Επιπλεόν, οι ερευνητές πιστεύουν ότι η τεχνητή νοημοσύνη θα μπορούσε να δημιουργήσει- εκτός από κείμενα- ψεύτικες αναρτήσεις, σχόλια, ακόμη και ηχητικά ή βίντεο κλιπ. «Με την τεχνητή νοημοσύνη, οι κακόβουλοι παράγοντες -συμπεριλαμβανομένων εκείνων που δεν γνωρίζουν καλά τη γλώσσα-στόχο- θα μπορούσαν να δημιουργήσουν γρήγορα και φθηνά πολλά παρόμοια άρθρα τα οποία όμως θα διαφέρουν ως προς το ύφος και τη διατύπωση. Αυτή η προσέγγιση θα αύξανε τον όγκο της προπαγάνδας, ενώ θα καθιστούσε πιο δύσκολο τον εντοπισμό της», σύμφωνα με τον επικεφαλής της μελέτης, Τζος Γκόλστιν του Πανεπιστημίου Τζόρτζταουν. Οι συγγραφείς της μελέτης πιστεύουν πως θα πρέπει να εστιάσουμε στην ανάπτυξη πιο αποτελεσματικών μεθόδων ανίχνευσης των εκστρατειών παραπληροφόρησης. «Εάν τα εργαλεία τεχνητής νοημοσύνης μπορούν να κλιμακώσουν τις εκστρατείες προπαγάνδας, η έρευνα που βελτιώνει τον εντοπισμό της υποδομής που απαιτείται για την παράδοση περιεχομένου σε έναν στόχο, όπως οι μη αυθεντικοί λογαριασμοί στα μέσα κοινωνικής δικτύωσης, θα γίνει πιο σημαντική», καταλήγουν οι ερευνητές.
Διαβάστε όλες τις τελευταίες Ειδήσεις για την υγεία από την Ελλάδα και τον ΚόσμοΑκολουθήστε το healthweb.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Ακολουθήστε το healthweb.gr στο κανάλι μας στο YouTube