Μια φωτογραφία στα social media αρκεί για να πέσεις θύμα deepfake βίντεο

Κυριακή, 29/10/2023 - 12:21

Μια φωτογραφία στα social media και ορισμένα δευτερόλεπτα αρκούν για να κυκλοφορήσει στο διαδίκτυο ένα παραποιημένο βίντεο που χρησιμοποιεί το πρόσωπο ή τη φωνή σου. Τα λεγόμενα «deep akes», τα ψηφιακά αρχεία που έχουν υποστεί επεξεργασία μέσω τεχνητής νοημοσύνης, εξελίσσονται με ραγδαίο ρυθμό, αποτελώντας επικίνδυνα εργαλεία στα χέρια επιτήδειων.

Με αφορμή ψευδή βίντεο που απεικονίζουν δήθεν προώθηση θαυματουργού φαρμάκου από παρουσιάστριες του ALPHA Κύπρου, ο Ειδικός σε θέματα ασφάλειας διαδικτύου, Ντίνος Παστός, εξηγεί πόσο εύκολο είναι ένας απλός χρήστης του διαδικτύου να πέσει θύμα «deepfake», αλλά και πώς η ίδια η τεχνητή νοημοσύνη μπορεί να δώσει τη λύση στο προβληματικό φαινόμενο. 

Όλοι είμαστε εν δυνάμει θύματα

«Deepfakes» αποκαλούνται βίντεο και φωτογραφίες που έχουν υποστεί επεξεργασία μέσω της τεχνητής νοημοσύνης με σκοπό να αντικαταστήσουν πειστικά την ομοιότητα ενός ατόμου με αυτή ενός άλλου. Όπως εξηγεί ο κ. Παστός, έχει δύο όψεις ως φαινόμενο: Μια προφανώς ψευδή και μια αληθοφανή ψευδή, δηλαδή «να τοποθετώ λόγια στο στόμα κάποιου, με τρόπο που δε θα φανεί ως προϊόν απάτης».

Λόγω της εξέλιξης της AI (Artificial Intelligence), αλλά και των εφαρμογών που στηρίχθηκαν σε αυτή, πλέον είναι ζήτημα δευτερολέπτων η παραγωγή deepfake υλικού, ενώ όλοι οι χρήστες του διαδικτύου είναι εν δυνάμει θύματα απάτης. 

Ντίνος Παστός - Ειδικός σε θέματα ασφάλειας διαδικτύου
«Είναι πανεύκολο αν υπάρχει υλικό δημοσιευμένο από εσένα ή από άλλους που να σε παρουσιάζει...Ορισμένα δευτερόλεπτα, λεπτά, αποσπάσματα, χρειάζεται ένα AI (Artificial Intelligence) πλέον για να έχει πλέον μια γενική εκπαίδευση από το υλικό και μετά "εμπλουτίζεται" με πρόσθετα βίντεο, εικόνες. Μια βίντεο κλήση, ένα αρχείο βίντεο, ένα story που ανεβάζεις και ακούγεται η φωνή σου, υπάρχει δείγμα, δηλαδή, που να μπορεί να μάθει το AI, είναι αρκετό για να αρχίσει η διαδικασία εκπαίδευσης και να σε κάνουν κλώνο.»

Σε αντίθεση με το παρελθόν, που απαιτούνταν εξειδικευμένες γνώσεις προγραμματισμού, πλέον η παραποίηση μπορεί να γίνει γρήγορα και από έναν απλό χρήστη, λόγω της προσβασιμότητας -ακόμη και δωρεάν- σε αντίστοιχες εφαρμογές. 

Φ

Μπορώ να προστατευτώ από τα deepfakes;

«Είναι πολύ δύσκολο να προσπαθήσεις να προστατευτείς από τα deepfakes», επισημαίνει ο Ειδικός σε θέματα ασφάλειας διαδικτύου. 

Ντίνος Παστός - Ειδικός σε θέματα ασφάλειας διαδικτύου
«Κυκλοφορεί υλικό μας στο διαδίκτυο, υπάρχει κάποιος που έχει φωτογαφίες δικές μας στο παρελθόν. Ήδη υπάρχει κάποιο υλικό κάπου.»

Ακόμα πιο έντονο είναι το φαινόμενο σε εύρεως γνωστά πρόσωπα, όπου συνήθως το περιεχόμενο δεν είναι παράλογο, αλλά ψευδές. 

Ντίνος Παστός - Ειδικός σε θέματα ασφάλειας διαδικτύου
«Στόχος είναι να χρησιμοποιήσουν την εμπιστοσύνη που εμπνέει ένα όνομα, μια φωνή ή μια εικόνα για να παραπλανήσουν τον κόσμο.»

«Κάπου υπάρχει και το όριο της λογικής μας: Πρέπει να μας βοηθήσει ότι αυτό που ακούω και βλέπω πρέπει να τα επιβεβαιώσω», εξηγεί ο κ. Παστός, αναφερόμενος στον ρόλο του ίδιου του χρήστη. 

Το πρόβλημα που γίνεται λύση

Στην τεχνητή νοημοσύνη θα πρέπει, σύμφωνα με τον κύριο Παστό, να αναζητηθεί η λύση, καθώς «η ίδια γνώση που παράγει μπορεί να σε βοηθήσει».

Ντίνος Παστός - Ειδικός σε θέματα ασφάλειας διαδικτύου

«Υπάρχει μια σχολή σκέψης ανθρώπων που το κατηγορούν, το δαιμονοποιούν και το φοβούνται... Το ΑΙ δεν ήρθε εδώ για να κάνει ζημιά. Είναι ένα εξαιρετικό εργαλείο που έχει τόσες πολλές δυνατότητες, που μπορεί να τις καταχραστεί κάποιος όπως οτιδήποτε άλλο υπάρχει στον κόσμο.»

Μέσω της αντίληψης των δυνατοτήτων, αλλά και την αξιοποίηση αυτών κατάλληλα και ορθολογικά, είναι δυνατόν να αναπτυχθούν προγράμματα που θα ενημερώνουν τους χρήστες για το πότε και σε τι ποσοστό ένα περιεχόμενο είναι ψευδές ή παραπλανητικό.