Skip to main content

Υπηρεσία της ΕΕ προειδοποιεί για κινδύνους από τη χρήση τεχνητής νοημοσύνης

Για τους κινδύνους από τη χρήση τεχνητής νοημοσύνης σε ιατρικές διαγνώσεις, «προληπτική αστυνόμευση» (predictive policing) και στοχευμένες διαφημίσεις προειδοποίησε αρμόδια υπηρεσία της ΕΕ, εν όψει της διαμόρφωσης κανόνων για τις προκλήσεις που φέρνει η εν λόγω τεχνολογία.

Αν και η ΑΙ χρησιμοποιείται ευρέως πλέον από υπηρεσίες επιβολής νόμου, οργανώσεις για την προστασία των δικαιωμάτων των πολιτών λένε ότι γίνεται αντικείμενο κατάχρησης από απολυταρχικά καθεστώτα, για μαζική παρακολούθησης άνευ διακρίσεων. Οι επικριτές της επίσης ανησυχούν πως παραβιάζονται επίσης θεμελιώδη δικαιώματα των πολιτών και κανόνες ιδιωτικότητας δεδομένων.

Όπως αναφέρει το Reuters, ο Οργανισμός Θεμελιωδών Δικαιωμάτων (FRA) της ΕΕ, που εδρεύει στη Βιέννη, ζητά από τους διαμορφωτές πολιτικής σε σχετική αναφορά που βγήκε τη Δευτέρα να παρέχουν περισσότερες κατευθυντήριες και καθοδήγηση ως προς το πώς οι υπάρχοντες κανόνες εφαρμόζονται στην τεχνητή νοημοσύνη και να διασφαλιστεί πως οι μελλοντικοί νόμοι για την ΑΙ θα προστατεύουν θεμελιώδη δικαιώματα.

«Η ΑΙ δεν είναι αλάθητη, είναι φτιαγμένη από ανθρώπους- και οι άνθρωποι μπορεί να κάνουν λάθη. Για αυτό ο κόσμος πρέπει να ξέρει πότε χρησιμοποιείται ΑΙ, πώς δουλεύει και πώς να αμφισβητεί αυτοματοποιημένες αποφάσεις» δήλωσε, στο πλαίσιο σχετικής ανακοίνωσης, ο διευθυντής της FRA, Μάικλ Ο’Φλάχερτι.

Σημειώνεται πως η Κομισιόν δουλεύει πάνω στη διαμόρφωση νομοθετικών πλαισίων μέσα στο επόμενο έτος για να καλυφθούν τομείς που θεωρούνται υψηλού κινδύνου, όπως η υγεία, η ενέργεια, οι μεταφορές και τμήματα του δημοσίου τομέα.

Ο οργανισμός λέει ότι οι κανόνες τεχνητής νοημοσύνης πρέπει να σέβονται όλα τα θεμελιώδη δικαιώματα, με ασφαλιστικές δικλείδες για να εξασφαλίζεται αυτό και να περιλαμβάνεται μια εγγύηση πως οι άνθρωποι θα μπορούν να αμφισβητούν αποφάσεις που λαμβάνονται από τεχνητές νοημοσύνες- καθώς και ότι οι εταιρείες θα πρέπει να είναι σε θέση να εξηγούν πώς τα συστήματά τους λαμβάνουν αποφάσεις τεχνητής νοημοσύνης. Επίσης, τονίζεται πως θα έπρεπε να γίνουν περαιτέρω έρευνες ως προς διακρίσεις που μπορεί να προκύπτουν από την ΑΙ, και ότι θα πρέπει να αποσαφηνιστεί πώς ακριβώς οι κανόνες προστασίας δεδομένων εφαρμόζονται ως προς τη συγκεκριμένη τεχνολογία.