Τεχνολογία

Google Τζέφρι Χίντον: Παραιτήθηκε για να μπορεί να επισημαίνει ελεύθερα τους κινδύνους των συστημάτων τεχνητής νοημοσύνης

Google Τζέφρι Χίντον: Παραιτήθηκε για να μπορεί να επισημαίνει ελεύθερα τους κινδύνους των συστημάτων τεχνητής νοημοσύνης
Σε δήλωσή του, ο επικεφαλής επιστήμονας της Google, Τζεφ Ντιν, δήλωσε: «Παραμένουμε προσηλωμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Μαθαίνουμε συνεχώς για να κατανοούμε τους αναδυόμενους κινδύνους, ενώ παράλληλα καινοτομούμε με τόλμη».

Your browser does not support the video tag. https://grx-obj.adman.gr/grx/creatives/sanofi/20876/better-understanding-insulin.mp4

Google Τζέφρι Χίντον:  Η πρωτοποριακή έρευνα του Τζέφρι Χίντον για τη βαθιά μάθηση και τα νευρωνικά δίκτυα άνοιξε τον δρόμο για τα σημερινά συστήματα τεχνητής νοημοσύνης όπως το ChatGPT. Ο Τζέφρι Χίντον, ο «νονός» της τεχνητής νοημοσύνης παραιτήθηκε από την Google ώστε να μπορεί να μιλάει ελεύθερα σχετικά με τους κινδύνους που ενέχει η τεχνολογία αυτή. Ο 75χρονος Χίντον ανακοίνωσε την παραίτησή του από την Google σε συνέντευξή του στους New York Times, λέγοντας ότι πλέον έχει μετανιώσει για το έργο του. Ορισμένοι από τους κινδύνους των chatbots της τεχνητής νοημοσύνης είναι «αρκετά τρομακτικοί», δήλωσε στο BBC «Αυτή τη στιγμή, δεν είναι πιο έξυπνα από εμάς, απ’ όσο μπορώ να πω. Αλλά νομίζω ότι σύντομα μπορεί να γίνουν», τόνισε.


Ο Χίντον παραδέχθηκε ότι η ηλικία του έπαιξε ρόλο στην απόφασή του να εγκαταλείψει τον τεχνολογικό γίγαντα, λέγοντας στο BBC: «Είμαι 75 ετών, οπότε ήρθε η ώρα να αποσυρθώ». Η πρωτοποριακή έρευνα του Χίντον για τη βαθιά μάθηση και τα νευρωνικά δίκτυα άνοιξε το δρόμο για τα σημερινά συστήματα τεχνητής νοημοσύνης όπως το ChatGPT. Ωστόσο ο Βρετανοκαναδός γνωστικός ψυχολόγος και επιστήμονας υπολογιστών δήλωσε στο BBC ότι το συγκεκριμένο chatbot θα μπορούσε σύντομα να ξεπεράσει το επίπεδο πληροφοριών που κατέχει ένας ανθρώπινος εγκέφαλος. «Αυτό που βλέπουμε τώρα είναι ότι προγράμματα όπως το GPT-4 ξεπερνούν τον άνθρωπο στις γενικές γνώσεις κατά πολύ. Από άποψη συλλογισμού, δεν είναι τόσο καλό, αν και κάνει ήδη απλούς συλλογισμούς. Και δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Επομένως πρέπει να ανησυχούμε γι’ αυτό», σημείωσε.

Στο άρθρο των New York Times, ο Χίντον αναφέρθηκε σε «κακόβουλους παράγοντες» που θα προσπαθήσουν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για «κακά πράγματα». Όταν το BBC του ζήτησε να δώσει περισσότερες λεπτομέρειες σχετικά με το θέμα αυτό, ο Χίντον απάντησε: «Αυτό είναι απλώς ένα είδος χειρότερου σεναρίου, ένα είδος εφιαλτικού σεναρίου». «Μπορείτε να φανταστείτε, για παράδειγμα, τι θα συνέβαινε αν ο Ρώσος πρόεδρος Βλαντίμιρ Πούτιν αποφάσιζε να δώσει στα ρομπότ τη δυνατότητα να δημιουργούν τους δικούς τους υπο-στόχους. Έχω καταλήξει στο συμπέρασμα ότι το είδος της νοημοσύνης που αναπτύσσουμε είναι πολύ διαφορετικό από τη νοημοσύνη που έχουμε. Είμαστε βιολογικά συστήματα και αυτά είναι ψηφιακά συστήματα. Η μεγάλη διαφορά είναι ότι με τα ψηφιακά συστήματα, έχετε πολλά αντίγραφα του ίδιου μοντέλου του κόσμου. Και όλα αυτά τα αντίγραφα μπορούν να μαθαίνουν ξεχωριστά, αλλά να μοιράζονται τη γνώση τους αμέσως. Έτσι είναι σαν να έχεις 10.000 ανθρώπους και κάθε φορά που ένα άτομο μαθαίνει κάτι, το μαθαίνουν όλοι αυτόματα. Και με αυτόν τον τρόπο αυτά τα chatbots μπορούν να γνωρίζουν πολύ περισσότερα από κάθε άτομο», δήλωσε. Τόνισε ωστόσο ότι δεν ήθελε να επικρίνει την Google και ότι ο τεχνολογικός γίγαντας ήταν «πολύ υπεύθυνος». Σε δήλωσή του, ο επικεφαλής επιστήμονας της Google, Τζεφ Ντιν, δήλωσε: «Παραμένουμε προσηλωμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Μαθαίνουμε συνεχώς για να κατανοούμε τους αναδυόμενους κινδύνους, ενώ παράλληλα καινοτομούμε με τόλμη».