Πολιτική Υγείας

Ευρωπαϊκό κοινοβούλιο τεχνητή νοημοσύνη: Επί τάπητος νέο νομοθετικό πλαίσιο

Ευρωπαϊκό κοινοβούλιο τεχνητή νοημοσύνη: Επί τάπητος νέο νομοθετικό πλαίσιο
Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου, όπως για παράδειγμα αυτές που διαθέτουν ικανότητες αυτοδιδασκαλίας, πρέπει να σχεδιάζονται με τρόπο που να εξασφαλίζει τη δυνατότητα παρέμβασης από τον άνθρωπο ανά πάσα στιγμή

Your browser does not support the video tag. https://grx-obj.adman.gr/grx/creatives/sanofi/20876/better-understanding-insulin.mp4

Ευρωπαϊκό κοινοβούλιο τεχνητή νοημοσύνη: Το Ευρωπαϊκό Κοινοβούλιο συγκαταλέγεται μεταξύ των πρώτων θεσμικών οργάνων που διατυπώνουν συστάσεις σχετικά με τους κανόνες για την τεχνητή νοημοσύνη και το περιεχόμενό τους σε θέματα δεοντολογίας, αστικής ευθύνης και δικαιωμάτων διανοητικής ιδιοκτησίας.

Οι συστάσεις αυτές θα προλειάνουν το έδαφος ώστε η ΕΕ να καταστεί παγκόσμιος ηγέτης στην ανάπτυξη της τεχνητής νοημοσύνης. Η νομοθετική πρόταση από την Ευρωπαϊκή Επιτροπή αναμένεται στις αρχές του 2021. Η νομοθετική πρωτοβουλία του Iban García del Blanco (Σοσιαλιστές, Ισπανία) καλεί την Ευρωπαϊκή Επιτροπή να παρουσιάσει ένα νέο νομοθετικό πλαίσιο με δεοντολογικές αρχές και νομικές υποχρεώσεις που θα πρέπει να τηρούνται κατά την ανάπτυξη, την υλοποίηση και τη χρήση τεχνητής νοημοσύνης, ρομποτικής και συναφών τεχνολογιών στην ΕΕ, συμπεριλαμβανομένου του λογισμικού, των αλγορίθμων και των δεδομένων. Η νομοθετική πρωτοβουλία εγκρίθηκε με 559 ψήφους υπέρ, 44 κατά και 88 αποχές.


Οι παρακάτω κατευθυντήριες αρχές θα πρέπει να διέπουν τη μελλοντική νομοθεσία: ο ανθρωποκεντρικός και ανθρωπογενής χαρακτήρας της τεχνητής νοημοσύνης, η ασφάλεια, η διαφάνεια και η λογοδοσία, οι δικλείδες ασφαλείας έναντι της μεροληψίας και των διακρίσεων, το δικαίωμα επανόρθωσης, η κοινωνική και η περιβαλλοντική ευθύνη, ο σεβασμός της ιδιωτικής ζωής και η προστασία των δεδομένων.

Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου, όπως για παράδειγμα αυτές που διαθέτουν ικανότητες αυτοδιδασκαλίας, πρέπει να σχεδιάζονται με τρόπο που να εξασφαλίζει τη δυνατότητα παρέμβασης από τον άνθρωπο ανά πάσα στιγμή. Σε περίπτωση που χρησιμοποιείται κάποια λειτουργία που θα μπορούσε να οδηγήσει σε σοβαρή παραβίαση των δεοντολογικών αρχών και να προκαλέσει κινδύνους, οι ικανότητες αυτοδιδασκαλίας θα πρέπει να απενεργοποιούνται και να αποκαθίσταται ο πλήρης έλεγχος από τον άνθρωπο.

Η νομοθετική πρωτοβουλία ζητεί τη θέσπιση ενός πλαισίου αστικής ευθύνης με μακρόπνοη προοπτική, βάσει του οποίου οι διαχειριστές συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου θα καθίστανται υπεύθυνοι για κάθε ζημία που προκαλείται. Οι κανόνες πρέπει να καλύπτουν κάθε φυσική ή ψηφιακή δραστηριότητα τεχνητής νοημοσύνης που προκαλεί ζημία ή βλάβη στη ζωή, την υγεία, τη σωματική ακεραιότητα ή την περιουσία, ή προκαλεί σημαντική ηθική βλάβη που οδηγεί σε «επαληθεύσιμη οικονομική ζημία».

Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου δεν είναι ακόμη διαδεδομένες, ωστόσο οι ευρωβουλευτές υποστηρίζουν ότι οι χειριστές σχετικών συστημάτων πρέπει να διαθέτουν ασφάλιση ανάλογη με εκείνη που προβλέπεται για τα μηχανοκίνητα οχήματα.

Οι ευρωβουλευτές υποστηρίζουν ότι είναι σημαντικό να γίνει διάκριση μεταξύ των ανθρώπινων δημιουργιών που υποβοηθούνται από την τεχνητή νοημοσύνη και των δημιουργιών που παράγονται αυτόνομα από την τεχνητή νοημοσύνη. Διευκρινίζουν ότι τα συστήματα τεχνητής νοημοσύνης δεν θα πρέπει να έχουν νομική προσωπικότητα, συνεπώς τα δικαιώματα διανοητικής ιδιοκτησίας θα ανήκουν αποκλειστικά σε ανθρώπους.