Οι επιχειρήσεις που θα αποδεχτούν την Τεχνητή Νοημοσύνη πρέπει να αποδεχτούν και τον κίνδυνο που διατρέχουν, που φτάνει μέχρι και την κατάρρευση
Πρωτόγνωρη μεγάλη απάτη με τραπεζικά εμβάσματα ύψους 25 εκατομμυρίων δολαρίων με την χρήση τεχνητής νοημοσύνης (AI) ακινητοποίησε στην κυριολεξία τους επικεφαλής μεγάλης οργανωμένης εταιρείας και παρέλυσε την λειτουργία της, σύμφωνα με τον διεθνή Νομικό Τύπο.
Το BN πριν ένα μήνα περίπου αναφέρθηκε στον κίνδυνο που βεβαιωμένα θα αντιμετωπίσουν οι επιχειρήσεις, αντιδρώντας, μεταξύ άλλων και στις σωρηδόν χορηγούμενες μελέτες που παρουσιάζουν μόνο τα οφέλη της τεχνητής νοημοσύνης.
Επίσης, οι ασφαλιστικές εταιρείες δεν ασφαλίζουν βεβαιωμένους κινδύνους, και αν τους ασφαλίσουν το capacity είναι περιορισμένο, οι όροι και οι διατυπώσεις πολλοί αυστηροί και το ασφάλιστρο πανάκριβο.
Η επίθεση προς την εταιρεία της οποίας η επωνυμία δεν αναφέρεται ξεκίνησε με ένα email ηλεκτρονικού ψαρέματος που παραδόθηκε στους οικονομικούς υπαλλήλους στα μέσα Ιανουαρίου, παρασύροντάς τους με πληροφορίες σχετικά με μια όπως αναφέρονταν «μυστική συναλλαγή».
Ένα από τα μέλη της οικονομικής διεύθυνσης, πάτησε πάνω στον σύνδεσμο και από εκεί —και δρομολογήθηκε η απάτη.
Το χρονικό της deepfake τηλεδιάσκεψης και η προσομοίωση του CFO
Ο εισβολέας κάλεσε το στέλεχος της οικονομικής διεύθυνσης σε μια deepfake τηλεδιάσκεψη, παρουσιάζοντας μια ψεύτικη αλλά άκρως πειστική προσομοίωση του CFO και άλλων συναδέλφων του. Το στέλεχος της οικονομικής διεύθυνσης που είχε λάβει και αποδεχτεί το πρώτο μήνυμα δεν είχε λόγο να κρίνει ότι η συναλλαγή ήταν παράνομη.
Η ποιότητα της εικόνας του βίντεο ήταν κάτι παραπάνω από άριστη, και έτσι ο συνάδελφος τους ενήργησε κατ’ εντολή του CFO (κατ’ εντολή της Τεχνητής Νοημοσύνης και των ληστών).
Χάριν της ευκρίνειας των ομοιωμάτων και όχι του διευθυντή του και των συναδέλφων μετέφερε το ποσό των 25,6 εκατομμυρίων δολαρίων σε πέντε διαφορετικούς τραπεζικούς λογαριασμούς μέσω 15 συναλλαγών, ακολουθώντας τις πλαστές οδηγίες των.
Ο όρος “deepfake” αναφέρεται σε πολυμέσα που είτε έχουν δημιουργηθεί, χρησιμοποιώντας κάποια μορφή μηχανής ή μορφές μηχανικής μάθησης. Οι πλαστές εικόνες είναι εξαιρετικά ρεαλιστικές και επομένως εξαιρετικά πειστικές από αυτές τις μηχανές.
Στο περιστατικό που συζητήθηκε παραπάνω, οι εγκληματίες του κυβερνοχώρου χρησιμοποίησαν τεχνολογία deepfake για να πλαστοπροσωπήσουν ένα άτομο με επιρροή μέσα στον οργανισμό, να αποκτήσουν πρόσβαση και επικοινωνία εντός του δικτύου με απώτερο σκοπό την κλοπή.
Οι τακτικές που χρησιμοποιούν οι κυβερνοεγκληματίες για την εξαπάτηση ενός οργανισμού παραμένουν οι ίδιες.
Οι επιθέσεις στα μέσα ψηφιακά μέσα επικοινωνίας, όπως αυτή δεν είναι κάτι καινούργιο.
Αυτό που άλλαξε με την εμφάνιση της τεχνολογίας deepfakes με δυνατότητα AI είναι η ευκολία και η κλίμακα με την οποία ένας κυβερνοεγκληματίας μπορεί να χειριστεί τα πολυμέσα και να εξαπολύσει πειστικά μία επίθεση.
Αυτές οι τεχνολογικές εξελίξεις, αναφέρει ο Νομικός Τύπος θα επιτρέψουν στους εγκληματίες του κυβερνοχώρου να αυξήσουν τη συχνότητα και το ποσοστό επιτυχίας των επιθέσεων.
Ανατροφοδότηση χρημάτων στις εταιρείες τεχνολογίας
Πλέον οι επιχειρήσεις που θα έχουν συναλλαγές με τεχνητή νοημοσύνη θα πρέπει να αλλάξουν τα πάντα στις δομές τους, να προβούν σε νέες τεχνολογικές επενδύσεις μεταξύ άλλων στα μειλ, στις ψηφιακές πλατφόρμες επικοινωνίας, και στα συστήματα μεταφορά χρημάτων – e-banking.
πηγή: https://www.bankingnews.gr/