Σήμερα Γιορτάζουν:

ΜΕΛΑΝΗ

21 Δεκεμβρίου 2025

Τα deepfakes διαβρώνουν την εμπιστοσύνη στην πληροφορία και φέρνουν την Ελλάδα μπροστά σε ψηφιακό κίνδυνο

Η δημοσίευση παραποιημένου περιεχομένου στο Διαδίκτυο δεν είναι νέο φαινόμενο. Αυτό που έχει αλλάξει τα τελευταία χρόνια είναι η ποιότητα και η ευκολία παραγωγής του, καθώς τα εργαλεία μηχανικής μάθησης και τεχνητής νοημοσύνης έχουν καταστήσει ιδιαίτερα δύσκολη τη διάκριση ανάμεσα στο αυθεντικό και το κατασκευασμένο.

Στον πυρήνα του προβλήματος βρίσκονται τα λεγόμενα deepfakes: ψηφιακά αρχεία, κυρίως βίντεο και ηχητικά, που έχουν αλλοιωθεί με προηγμένες τεχνικές τεχνητής νοημοσύνης ώστε να εμφανίζουν πρόσωπα ή φωνές να λένε ή να κάνουν πράγματα που δεν συνέβησαν ποτέ.

Σε διεθνές επίπεδο, η χρήση τους έχει συνδεθεί με οικονομικές απάτες και απόπειρες πολιτικής χειραγώγησης, γεγονός που εντείνει τις ανησυχίες και στην Ελλάδα.

Όπως επισημαίνει ο Ειδικός Γραμματέας Τεχνητής Νοημοσύνης και Διακυβέρνησης Δεδομένων του υπουργείου Ψηφιακής Διακυβέρνησης, Βασίλης Καρκατζούνης, τα deepfakes δεν αποτελούν θεωρητική απειλή αλλά ένα ήδη υπαρκτό φαινόμενο με επιπτώσεις στην ασφάλεια, την οικονομία και την εμπιστοσύνη στην πληροφορία.

Στη χώρα μας, η έκθεση των πολιτών σε συνθετικό περιεχόμενο αυξάνεται, την ώρα που οι δυνατότητες ανίχνευσης και επαλήθευσης παραμένουν περιορισμένες.

Παρότι συχνά συνδέονται με τη γενετική τεχνητή νοημοσύνη, τα deepfakes προϋπήρχαν. Ο όρος προέρχεται από τη «βαθιά μηχανική μάθηση», δηλαδή τις τεχνολογίες που αποτελούν τη βάση των σύγχρονων εργαλείων ΑΙ.

Σύμφωνα με τον ερευνητή του ΕΚΕΦΕ «Δημόκριτος» Θανάση Δαββέτα, η αληθοφάνειά τους οφείλεται στα πολλαπλά επίπεδα επεξεργασίας, γεγονός που καθιστά την αναγνώρισή τους δύσκολη για μη εξοικειωμένους χρήστες, αν και συχνά εντοπίζονται από ασυνέπειες στο ίδιο το περιεχόμενο.

Η διάθεση δωρεάν εργαλείων GenAI στο ευρύ κοινό έχει απλοποιήσει σημαντικά τη δημιουργία συνθετικού υλικού. Αυτό, σύμφωνα με τον κ. Καρκατζούνη, αυξάνει τον κίνδυνο χρήσης πέρα από τη σάτιρα ή τη δημιουργικότητα και καθιστά αναγκαία μια συνολική στρατηγική για την ψηφιακή εμπιστοσύνη.

Την ίδια στιγμή, οι μεγάλες εταιρείες ΑΙ έχουν ενσωματώσει μηχανισμούς προστασίας, αν και, όπως σημειώνει ο κ. Δαββέτας, χρήστες με εξειδικευμένη γνώση και επαρκείς πόρους μπορούν να τους παρακάμψουν αναπτύσσοντας δικά τους μοντέλα.

Στην πράξη, μεγάλο μέρος του περιεχομένου τύπου deepfake που καταναλώνεται παγκοσμίως αφορά ψυχαγωγικά βίντεο, με ζώα, παιδιά ή χιουμοριστικές αναπαραστάσεις πραγματικών προσώπων.

Στην Ελλάδα, η κακόβουλη χρήση για πολιτικούς σκοπούς παραμένει περιορισμένη σε σύγκριση με το εξωτερικό, χωρίς αυτό να αποκλείει μια μελλοντική αύξηση.

Το βασικό πρόβλημα εντοπίζεται κυρίως στις απάτες, με βίντεο όπου πολιτικοί, καλλιτέχνες ή αθλητές εμφανίζονται να προωθούν επενδυτικά προϊόντα, συχνά συνδεδεμένα με κρυπτονομίσματα.

Η κατάσταση επιδεινώνεται από το σχετικά υψηλό ποσοστό ψηφιακού αναλφαβητισμού, που δυσκολεύει πολλούς πολίτες να ξεχωρίσουν το κατασκευασμένο από το αληθινό, οδηγώντας τους ακόμη και σε οικονομικές απώλειες.

Σε διεθνές επίπεδο, το ζήτημα απασχολεί ολοένα και περισσότερο οργανισμούς και ρυθμιστικές αρχές, καθώς τα παραδοσιακά μέτρα, όπως τα απλά υδατογραφήματα, αποδεικνύονται ανεπαρκή.

Καθώς το περιεχόμενο που παράγεται με ΑΙ αυξάνεται ραγδαία, ενισχύεται η άποψη ότι στο μέλλον ίσως χρειαστεί σήμανση του ανθρώπινου περιεχομένου, αντί του συνθετικού.

Η ελληνική προσέγγιση, σύμφωνα με τον κ. Καρκατζούνη, δίνει έμφαση στη διαφάνεια, τη νομική σαφήνεια και την τεχνική αξιοπιστία.

Στόχος είναι η υιοθέτηση ανθεκτικών και διαλειτουργικών μεθόδων πιστοποίησης της προέλευσης του περιεχομένου, σε συνδυασμό με υποχρεώσεις διαφάνειας και αποτελεσματική εποπτεία, ώστε να ενισχυθεί η εμπιστοσύνη χωρίς να περιοριστούν η ελευθερία της έκφρασης και η καινοτομία.

Ετικέτες: