Deepfake και Fake Videos: Πώς να προστατευτείτε

Deepfake και Fake Videos: Πώς να προστατευτείτε
© Παρέχεται από: pestaola.gr

Τα “deepfake” βίντεο προέρχονται από την λέξη «deep = βαθιά» από την «βαθιά μάθηση» και «fake = ψεύτικο».

Η βαθιά μάθηση είναι μια προηγμένη μέθοδος Τεχνητής Νοημοσύνης (“AI”) που χρησιμοποιεί πολλαπλά επίπεδα αλγορίθμων μηχανικής εκμάθησης για την εξαγωγή δυνατοτήτων προοδευτικά υψηλότερου επιπέδου από μη δομημένα δεδομένα· όπως το ανθρώπινο πρόσωπο.

Ο Μανώλης Σφακιανάκης, Πρόεδρος και Ιδρυτής του Ινστιτούτου Διεθνούς Κυβερνοασφάλειας (CSI Institute), σχολίασε:

«Πλέον το “deepfake” γίνεται ολοένα και ισχυρότερη απειλή που ανθεί κυρίως σε χώρες όπου δεν υπάρχει σαφές νομοθετικό πλαίσιο. Είναι τέτοια η φύση του που μπορεί ακόμα και… να «τρελάνει» ανθρώπους αναίτια και απρόκλητα, μετατρέποντάς τους σε παραλήπτες εκβιαστικών μηνυμάτων. Και όσο τα “deepfakes” γίνονται πιο προσιτά, οι άνθρωποι θα γίνονται περισσότερο αγχώδεις, διότι αισθάνονται και άλλον τεχνολογικό κίνδυνο προ των πυλών. Εδώ θα χρειαστούν επειγόντως την άμεση βοήθεια των ειδικών και εξειδικευμένων εταιρειών για την δημιουργία ενός αποτελεσματικού προγράμματος ψηφιακής ασφάλειας, που θα εντοπίζει και παράλληλα θα ενημερώνει για ευρήματα που αφορούν το επερχόμενο νέο φαινόμενο. Αυτό λοιπόν το φαινόμενο έρχεται και στη χώρα μας μέσα από εφαρμογές οι οποίες είναι γνωστές σε όλους μας και το βασικότερο είναι ότι έχουν αναστατώσει τουλάχιστον 100.000 διαδικτυακούς χρήστες παγκοσμίως μέχρι στιγμής. Εύχομαι να θεσπιστεί στη χώρα μας άμεσα σχετικό νομοθετικό πλαίσιο και να μην επαναπαυθούμε στην καταπολέμηση αυτού από τις διάφορες εταιρείες κοινωνικής δικτύωσης και τις δημοφιλείς μηχανές αναζήτησης».

Για παράδειγμα, ένα “AI” μπορεί να συλλέξει δεδομένα σχετικά με τις φυσικές σας κινήσεις. Αυτά τα δεδομένα μπορούν στην συνέχεια να υποβληθούν σε επεξεργασία προκειμένου να δημιουργηθεί ένα βίντεο “deepfake” μέσω ενός “GAN (Generative Adversarial Network)”. Αυτό είναι ένα άλλο είδος εξειδικευμένου συστήματος μηχανικής μάθησης. Δύο νευρωνικά δίκτυα χρησιμοποιούνται για να ανταγωνίζονται μεταξύ τους για την εκμάθηση των χαρακτηριστικών ενός “σετ εκπαίδευσης” (για παράδειγμα, φωτογραφίες προσώπων) και στην συνέχεια για την δημιουργία νέων δεδομένων με τα ίδια χαρακτηριστικά (νέες «φωτογραφίες»).

«Επειδή ένα τέτοιο δίκτυο συνεχίζει να δοκιμάζει τις εικόνες που δημιουργεί σε αντιπαραβολή με το “σετ εκπαίδευσης”, οι ψεύτικες εικόνες γίνονται όλο και πιο πειστικές. Αυτό καθιστά το “deepfake” μια πιο ισχυρή απειλή»,

προειδοποιεί ο Βασίλης Βλάχος, Channel Manager της Kaspersky για Ελλάδα και Κύπρο.

«Επιπλέον, τα “GAN” μπορούν να παραποιήσουν κι άλλα δεδομένα εκτός από φωτογραφίες και βίντεο. Στην πραγματικότητα, οι ίδιες τεχνικές μηχανικής εκμάθησης και σύνθεσης “deepfake” μπορούν να χρησιμοποιηθούν για την παραποίηση φωνών. Είναι εύκολο να καταλάβουμε πώς οι ψηφιακοί εγκληματίες μπορούν να το χρησιμοποιήσουν προς όφελός τους».

Πώς μπορούμε να προστατευθούμε από τα “deepfake”;

Η νομοθεσία έχει ήδη αρχίσει να αντιμετωπίζει τις απειλές των βίντεο “deepfake”. Για παράδειγμα, στην πολιτεία της Καλιφόρνια, έχουν ψηφιστεί δύο νομοσχέδια που καθιστούν παράνομες πτυχές του “deepfake”· το “AB-602” απαγόρευσε τη χρήση σύνθεσης ανθρώπινης εικόνας για πορνογραφία χωρίς την συγκατάθεση των ανθρώπων που απεικονίζονται και το “AB-730” απαγόρευσε την εκμετάλλευση εικόνων πολιτικών υποψηφίων εντός 60 ημερών από τις εκλογές.

Οι εταιρείες ψηφιακής ασφάλειας έρχονται συνεχώς με περισσότερους και καλύτερους αλγόριθμους ανίχνευσης. Αυτοί αναλύουν την εικόνα του βίντεο και εντοπίζουν τις μικροσκοπικές παραμορφώσεις που δημιουργούνται στη διαδικασία «πλαστογράφησης». Για παράδειγμα, οι τρέχοντες συνθέτες “deepfake” διαμορφώνουν ένα δισδιάστατο πρόσωπο και, στην συνέχεια, το παραμορφώνουν ώστε να ταιριάζει με την τρισδιάστατη προοπτική του βίντεο. Κοιτάζοντας προς τα που δείχνει η μύτη είναι ένας βασικός τρόπος ανίχνευσης.

Τα βίντεο “deepfake” βρίσκονται ακόμη σε ένα στάδιο όπου μπορείτε να εντοπίσετε μόνοι σας τα σημάδια. Αναζητήστε τα ακόλουθα χαρακτηριστικά ενός βίντεο “deepfake”, όπως:

  • η αδέξια κίνηση
  • οι αλλαγές στον φωτισμό από το ένα πλαίσιο στο άλλο
  • οι αλλαγές στον τόνο του δέρματος
  • το παράξενο ή καθόλου ανοιγόκλεισμα ματιών
  • τα χείλη που δεν συγχρονίζονται με την ομιλία
  • ή άλλα ψηφιακά αντικείμενα στην εικόνα.

Ο Βασίλης Βλάχος επιμένει ότι οι καλές διαδικασίες ασφάλειας είναι η καλύτερη προστασία:

«Οι καλές βασικές διαδικασίες ασφάλειας είναι εξαιρετικά αποτελεσματικές στην αντιμετώπιση του “deepfake”. Για παράδειγμα, η ενσωμάτωση αυτόματων ελέγχων σε οποιαδήποτε διαδικασία εκταμίευσης χρημάτων θα είχε σταματήσει πολλές απάτες “deepfake” και παρόμοιες. Όλοι πρέπει να εκπαιδευτούν και να ενημερωθούν καλά πώς να εντοπίσουν ένα “deepfake”, ενώ οι εταιρείες πρέπει να διασφαλίζουν ότι οι εργαζόμενοι γνωρίζουν πώς λειτουργεί το “deepfaking” και τις προκλήσεις που μπορεί να φέρει. Θα πρέπει επίσης να έχουν καλά βασικά πρωτόκολλα με βάση τον κανόνα «trust but verify». Η σκεπτικιστική στάση απέναντι στα ηχητικά μηνύματα και τα βίντεο δεν εγγυάται ότι οι εργαζόμενοι δεν θα εξαπατηθούν ποτέ, αλλά μπορεί να σας βοηθήσει να αποφύγετε πολλές παγίδες».

Πόσο πειστικά έχουν γίνει τα “deepfakes“;

Τα πρώιμα βίντεο “deepfake” φαίνονταν γελοία, αλλά η τεχνολογία έχει εξελιχθεί αρκετά ώστε τέτοια μέσα να γίνουν τρομακτικά πειστικά. Ένα από τα πιο αξιοσημείωτα παραδείγματα τρομακτικά πειστικού “deepfake” από το 2018 ήταν ο ψεύτικος Μπαράκ Ομπάμα που μιλούσε για τα “deepfakes”. Στα μέσα του 2019, είδαμε ένα σύντομο βίντεο του ψεύτικου Mark Zuckerberg να είναι αξιοπερίεργα ειλικρινής σχετικά με την τρέχουσα κατάσταση απορρήτου.

Τον Οκτώβριο, έρευνα σε μια υπηρεσία “bot” που δημιουργεί ψεύτικα γυμνά ανέδειξε ότι η πιο επείγουσα επικίνδυνη τάση “deepfakes” στο Διαδίκτυο δεν είναι η παραπληροφόρηση· αλλά το εκδικητικό πορνό. Η εταιρεία παρακολούθησης “deepfake” «Sensity», προηγουμένως γνωστή ως “Deeptrace”, αποκάλυψε ότι είχε ανακαλύψει μια τεράστια επιχείρηση διάδοσης γυμνών εικόνων γυναικών που δημιουργούνται από “AI” και, σε ορισμένες περιπτώσεις, ανηλίκων κοριτσιών. Η υπηρεσία λειτουργούσε κυρίως στην κρυπτογραφημένη εφαρμογή μηνυμάτων “Telegram” χρησιμοποιώντας ένα “bot” που λειτουργεί με “AI”. Οι χρήστες είχαν την δυνατότητα να στέλνουν στο “bot” την φωτογραφία μιας γυναίκας που ήθελαν να δουν γυμνή. Στη συνέχεια, το “bot” δημιουργούσε ένα ψεύτικο γυμνό σώμα στο οποίο ενσωμάτωνε την αρχική εικόνα της εν λόγω γυναίκας.

Η «Sensity» ανέφερε πέρυσι ότι το 96% των βίντεο “deepfake” online ήταν μη συναινετική πορνογραφία. Ο Διευθύνων Σύμβουλος της «Sensity», Giorgio Patrini, ανέφερε στο “Business Insider” ότι το ποσοστό δεν έχει αλλάξει.

Πηγή:

Λογότυπο pestaola.gr

(Συνολικές Επισκέψεις: / Total Visits: 12)

(Σημερινές Επισκέψεις: / Today's Visits: 1)
Σας αρέσει το άρθρο; / Do you like this post?
+1
0
+1
0
+1
0
+1
1
+1
0
+1
0
+1
0

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.