Πολύτιμο εργαλείο στα χέρια επιτήδειων ή κακοποιών αποδεικνύεται η τεχνητή νοημοσύνη (ΑΙ). Κι αυτό, καθώς με λίγες μόλις κινήσεις του ποντικιού ενός υπολογιστή μπορούν να δημιουργήσουν πειστικά βίντεο, φωτογραφίες ή ακόμη και… φωνές υπαρκτών προσώπων είτε για την εξαπάτηση είτε για τη διαπόμπευση ανθρώπων, είτε απλώς για την παράνομη απόκτηση χρημάτων.

Η πλέον ηχηρή περίπτωση απάτης με τη χρήση ΑΙ μέχρι στιγμής στην Ελλάδα ήταν η περίπτωση ενός αλλοδαπού που εμφανίστηκε ως προϊστάμενος κλινικής των ΗΠΑ και έδωσε ηχητική εντολή μεταφοράς 4,5 εκατ. ευρώ σε μια ΙΚΕ (Ιδιωτική Κεφαλαιουχική Εταιρεία) που είχε φτιάξει στη Θεσσαλονίκη. Χάρη στις προσπάθειες των Αμερικανών και Ελλήνων αστυνομικών, τα χρήματα κατασχέθηκαν, προτού μεταφερθούν στην Ασία.

Τεχνητή νοημοσύνη: Οι 4 μέθοδοι που χρησιμοποιούν οι απατεώνες

Οι αστυνομικοί της Υποδιεύθυνσης Δίωξης Ηλεκτρονικού Εγκλήματος εντοπίζουν πλέον όλο και πιο συχνά περιστατικά, στα οποία ανήλικοι και ενήλικοι δράστες χρησιμοποιούν την ΑΙ για να πετύχουν τους στόχους τους. Τους τελευταίους οκτώ μήνες, τα περιστατικά απάτης αλλά και σεξουαλικής διαπόμπευσης έχουν εκτοξευτεί, με τους αστυνομικούς να καλούνται να τα διαχειριστούν.

Τα δωρεάν προγράμματα ΑΙ δίνουν απεριόριστες δυνατότητες στους επιτήδειους. Όπως αποκαλύπτει στην «Απογευματινή» η διδάκτωρ Ψηφιακής Εγκληματολογίας-πραγματογνώμονας Κέλλυ Ιωάννου, οι μέθοδοι που χρησιμοποιούνται είναι οι εξής:

1. «Deepfake βίντεο και ήχος»

Με την τεχνολογία deepfake, οι απατεώνες δημιουργούν βίντεο ή ηχογραφήσεις που φαίνεται να απεικονίζουν γνωστά πρόσωπα να λένε ή να κάνουν πράγματα που δεν συνέβησαν ποτέ. Χαρακτηριστική περίπτωση εταιρεία που έχασε πάνω από 200.000 ευρώ όταν ένας διευθυντής «ζήτησε» μέσω τηλεφωνικής κλήσης τη μεταφορά χρημάτων - στην πραγματικότητα, όμως, ήταν ψεύτικη η φωνή του. Οι απατεώνες βρήκαν δείγματα της φωνής του από βίντεο στα social media.

2. «Phishing με ακρίβεια AI»

Οι απατεώνες χρησιμοποιούν την AI για τη δημιουργία εξατομικευμένων email ή μηνυμάτων βασισμένων σε πληροφορίες που συλλέγουν από social media. Έτσι, οι επιθέσεις phishing γίνονται πιο πειστικές και είναι δύσκολο να εντοπιστούν. Ένας υπάλληλος μεγάλης εταιρείας έλαβε email που φαινόταν να προέρχεται από τον διευθυντή του ζητώντας επειγόντως να επιβεβαιώσει τα στοιχεία του μέσω ενός συνδέσμου. Το email βασιζόταν σε λεπτομέρειες από το προφίλ του στο LinkedIn και περιείχε πληροφορίες για ένα πρόσφατο έργο, κάνοντάς το να φαίνεται αυθεντικό.

3. «Ψεύτικες ταυτότητες και προφίλ»

Με AI-generated φωτογραφίες και δεδομένα, δημιουργούνται ρεαλιστικά ψεύτικα προφίλ, που χρησιμοποιούνται σε πλατφόρμες κοινωνικής δικτύωσης ή εφαρµογές γνωριµιών. Οι «ροµαντικές απάτες» (romance scams) βασίζονται συχνά σε τέτοια προφίλ. Μια γυναίκα σε εφαρµογή γνωριµιών ήρθε σε επαφή µε έναν «γιατρό» που ισχυριζόταν ότι βρισκόταν σε ανθρωπιστική αποστολή στο εξωτερικό. Το προφίλ του περιείχε φωτογραφίες που φαίνονταν αυθεντικές, αλλά είχαν δηµιουργηθεί µε AI. Έπειτα από µήνες επικοινωνίας, ο «γιατρός» ζήτησε οικονοµική βοήθεια για να ξεπεράσει υποτιθέµενες δυσκολίες στο ταξίδι του πίσω στην πατρίδα. Η γυναίκα έστειλε πάνω από 10.000 ευρώ, πριν ανακαλύψει ότι ο άντρας που ερωτεύτηκε δεν υπήρχε, ενώ οι φωτογραφίες ήταν ψεύτικες.

4. «Ψεύτικες κριτικές και επενδυτικές απάτες»

Η AI χρησιµοποιείται για µαζική παραγωγή θετικών ή αρνητικών κριτικών, ενώ bots (προγράµµατα που εκτελούν αυτοµατοποιηµένες εργασίες µέσω του διαδικτύου) πείθουν χρήστες να επενδύσουν σε πλασµατικά έργα ή κρυπτονοµίσµατα. Ένας επενδυτής παρασύρθηκε από δεκάδες θετικές κριτικές σε µια online πλατφόρµα που υποσχόταν υψηλές αποδόσεις από επενδύσεις σε κρυπτονοµίσµατα. Οι κριτικές περιείχαν λεπτοµέρειες και «µαρτυρίες» από φαινοµενικά πραγµατικούς χρήστες, αλλά είχαν δηµιουργηθεί µέσω AI. Ο επενδυτής κατέθεσε 15.000 ευρώ, για να διαπιστώσει αργότερα ότι η πλατφόρµα ήταν ψεύτικη και τα χρήµατα είχαν εξαφανιστεί…

Δημοσιεύτηκε στην Απογευματινή