Σε ετήσια ανασκόπηση των θεμάτων ασφάλειας στον κυβερνοχώρο το Εθνικό Κέντρο Κυβερνοασφάλειας προειδοποίησε για όλο και πιο ρεαλιστικά, deepfake βίντεο και άλλες μορφές παραπληροφόρησης.
Οι εξελίξεις στην τεχνητή νοημοσύνη αποτελούν αυξανόμενη απειλή για την ακεραιότητα των εκλογών τόσο στην Βρετανία αλλά και σε άλλες χώρες, προειδοποίησε η βρετανική υπηρεσία κυβερνοασφάλειας.
Το Εθνικό Κέντρο Κυβερνοασφάλειας (NCSC) δήλωσε ότι χώρες όπως η Ρωσία θα προσπαθήσουν πιθανότατα να παρέμβουν στο αποτέλεσμα της ψηφοφορίας - η οποία πρέπει να διεξαχθεί έως τον Ιανουάριο του 2025 - καθώς και σε άλλες σημαντικές εκλογές στις δυτικές χώρες το επόμενο έτος, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών.
Σε μια ετήσια επισκόπηση ενός ευρέος φάσματος θεμάτων ασφάλειας στον κυβερνοχώρο, η υπηρεσία, η οποία αποτελεί μέρος της GCHQ, (οργανισμός πληροφοριών και ασφάλειας υπεύθυνος για την παροχή πληροφοριών σημάτων (SIGINT) και διασφάλισης πληροφοριών (IA) στην κυβέρνηση και τις ένοπλες δυνάμεις του Ηνωμένου Βασιλείου), προειδοποίησε για την προοπτική ολοένα και πιο ρεαλιστικών, deepfake βίντεο και άλλων μορφών παραπληροφόρησης που έχουν σχεδιαστεί για να επηρεάσουν τις προτιμήσεις των ψηφοφόρων.
Σε κίνδυνο οι Ευρωεκλογές
Ο ENISA, (Οργανισμός της Ευρωπαϊκής Ένωσης για την Κυβερνοασφάλεια), κατέγραψε περίπου 2580 περιστατικά κατά τη διάρκεια της περιόδου αναφοράς που ξεκίνησε από τον Ιούλιο του 2022 έως τον Ιούνιο του 2023.
Σε αυτό το σύνολο πρέπει να προστεθούν 220 περιστατικά που στόχευαν ειδικά δύο ή περισσότερα κράτη μέλη της ΕΕ.
Ενώ ο «φόβος» και τα μάτια όλων είναι στραμμένα στις Ευρωεκλογές που θα πραγματοποιηθούν τον Ιούνιο του 2024.
Ο εκτελεστικός διευθυντής του Οργανισμού της ΕΕ για την Κυβερνοασφάλεια, Juhan Lepassaar, δήλωσε ότι «η εμπιστοσύνη στην εκλογική διαδικασία της ΕΕ θα εξαρτηθεί σε κρίσιμο βαθμό από την ικανότητά μας να βασιζόμαστε σε ασφαλείς υποδομές στον κυβερνοχώρο και στην ακεραιότητα και διαθεσιμότητα των πληροφοριών. Τώρα, εναπόκειται σε εμάς να διασφαλίσουμε ότι θα λάβουμε τα απαραίτητα μέτρα για την επίτευξη αυτού του ευαίσθητου αλλά ουσιαστικού στόχου για τις δημοκρατίες μας».
Η τεχνητή νοημοσύνη και η πολυπλοκότητα των Μεγάλων Γλωσσικών Μοντέλων (Large Language Models - LLMs) έτυχαν μεγάλης προσοχής τον τελευταίο καιρό. Οι βαθιές απομιμήσεις και άλλες τέτοιες τεχνολογίες μπορούν να τροφοδοτήσουν τον στόχο των ρεαλιστικών και στοχευμένων επιθέσεων κοινωνικής μηχανικής. Πρέπει να είμαστε σε εγρήγορση για την πιθανή κατάχρηση των chatbots με τεχνητή νοημοσύνη σε απόπειρες phishing, χειραγώγησης πληροφοριών και εγκλήματος στον κυβερνοχώρο.
Η ανάπτυξη των «μισθωμένων χάκερ» θα οδηγήσει σε περισσότερες επιθέσεις και απρόβλεπτες απειλές
«Αυτή η «απειλή» έχει κάνει την διαδικασία επηρεασμού του πολιτικού λόγου στις δημοκρατίες όλο και πιο ελκυστική για τους κρατικούς φορείς», δήλωσε ο οργανισμός.
Προειδοποίησε επίσης για την εμφάνιση κυβερνοπρακτόρων που είναι ευθυγραμμισμένοι με κακόβουλα κράτη όπως η Ρωσία και μοιράζονται τους ίδιους ιδεολογικούς στόχους, αλλά μπορούν να δράσουν με λιγότερη αυτοσυγκράτηση.
Είναι η τεχνητή νοημοσύνη μια υπαρξιακή απειλή (;)
Το NCSC εκτιμά ότι δημοκρατικές διαδικασίες όπως οι εκλογές, είναι σχεδόν βέβαιο ότι αποτελούν ελκυστικούς στόχους για κακόβουλους φορείς και, επομένως, οι οργανισμοί και τα άτομα πρέπει να είναι προετοιμασμένοι για απειλές, παλιές και νέες.
Σε απάντηση, το Ηνωμένο Βασίλειο έχει συστήσει μια ειδική ομάδα εργασίας για την υπεράσπιση της δημοκρατίας και μια κοινή μονάδα προετοιμασίας για την ασφάλεια των εκλογών.
Εκτός από την εστίαση στη Ρωσία, ο οργανισμός της έκθεσης NCSC επισήμανε επίσης τη συνεχιζόμενη απειλή στον κυβερνοχώρο από την Κίνα, το Ιράν και τη Βόρεια Κορέα.
Πηγή: skynews, enisa.europa.eu