Οι εταιρείες που δουλεύουν πάνω στην τεχνητή νοημοσύνη πρέπει να θέσουν σε ισχύ μηχανισμούς- δικλείδες ασφαλείας για να αποτρέψουν την κατάχρησή της, ανέφερε η Κομισιόν στο ευρύτερο πλαίσιο της επιβολής νέων κανόνων ηθικής σε μια τεχνολογία η οποία θεωρείται επίφοβη από άποψης ανάπτυξης και χρήσης. Τα projects στον χώρο της τεχνητής νοημοσύνης θα έπρεπε να είναι διαφανή, να τελούν υπό ανθρώπινη επίβλεψη και αξιόπιστους αλγορίθμους και να υπακούν σε κανόνες ιδιωτικότητας και προστασίας δεδομένων σύμφωνα με τους αξιωματούχους της Κομισιόν.
H ευρωπαϊκή αυτή πρωτοβουλία εντάσσεται στο ευρύτερο πλαίσιο του διαλόγου σχετικά με το αν οι εταιρείες θα έπρεπε να βάλουν τους ηθικούς προβληματισμούς στον κλάδο πάνω από τα επιχειρηματικά συμφέροντα, και το πόσο αυστηροί μπορούν να είναι οι κανόνες χωρίς να φτάνουν στο σημείο να καταπνίγουν την καινοτομία.
«Η ηθική διάσταση της τεχνητής νοημοσύνης δεν είναι είδος πολυτελείας, ή κάτι επιπρόσθετο. Μόνο με εμπιστοσύνη μπορεί να επωφεληθεί πλήρως η κοινωνία μας από τις τεχνολογίες» είπε ο αρμόδιος επίτροπος, Άντρους Άνσιπ. Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον εντοπισμό απειλών κυβερνοασφαλείας και απατών, στη βελτίωση του κλάδου της υγείας, στη διαχείριση οικονομικού ρίσκου και στην αντιμετώπιση της κλιματικής αλλαγής. Ωστόσο, μπορεί να χρησιμοποιηθεί και για αθέμιτες πρακτικές, καθώς και από απολυταρχικά καθεστώτα.
Η ΕΕ πέρυσι ζήτησε τη βοήθεια 52 ειδικών από πανεπιστήμια, βιομηχανικούς φορείς και εταιρείες (περιλαμβανομένων των Google, SAP, Santander, Bayer) για να συντάξει μια σειρά αρχών πάνω στο θέμα. Εταιρείες και οργανισμοί μπορούν να συμμετέχουν σε μια πιλοτική φάση, η οποία αρχίζει τον Ιούνιο, μετά την οποία οι ειδικοί θα εξετάσουν τα αποτελέσματα και η Κομισιόν θα αποφασίσει για τα επόμενα βήματα.
Διαβάστε όλες τις τελευταίες Ειδήσεις για την υγεία από την Ελλάδα και τον ΚόσμοΑκολουθήστε το healthweb.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Ακολουθήστε το healthweb.gr στο κανάλι μας στο YouTube