Πώς η τεχνητή νοημοσύνη μπορεί να καθορίσει ή και να «κλέψει» τις εκλογές
Η τεχνητή νοημοσύνη φτάνει τώρα σε ένα σημείο όπου τα ευρέως προσβάσιμα εργαλεία επιτρέπουν τη συνθετική δημιουργία εξαιρετικά ρεαλιστικών υλικών – εικόνων, ήχου και, όλο και περισσότερο, ακολουθιών βίντεο που δημιουργούνται εξ ολοκλήρου από AI.
Καθώς η βιομηχανία κάνει άλματα μπροστά και το ανθρώπινο μάτι προσπαθεί να ξεχωρίσει το πραγματικό από το τεχνητό, ορισμένοι ειδικοί και επιχειρηματίες έχουν προσπαθήσει να βρουν λύσεις.
Ο ψηφιακός χώρος πρόκειται να γίνει ολοένα και πιο ύπουλος, αναφέρουν αρκετοί ειδικοί που συμβουλεύτηκαν οι The Epoch Times.
Κατασκευές υψηλής ποιότητας παράγονται ήδη γρήγορα και εύκολα. Έχουν προκύψει υπηρεσίες επαλήθευσης, οι οποίες χρησιμοποιούν AI για να εντοπίσουν την AI. Η λογική εξέλιξη, ωστόσο, θα είναι ένας αγώνας εξοπλισμών μεταξύ γεννητριών τεχνητής νοημοσύνης και ανιχνευτών τεχνητής νοημοσύνης, που θα οδηγήσει σε όλο και πιο εξελιγμένες απομιμήσεις.
Το αποτέλεσμα θα είναι μια εικονική πραγματικότητα στην οποία οι χρήστες χάνουν σε μεγάλο βαθμό την ικανότητα να διακρίνουν το γνήσιο και το ψεύτικο βλέποντας το ίδιο το περιεχόμενο. Όλο και περισσότερο, θα πρέπει να βασίζονται σε υπηρεσίες επαλήθευσης τρίτων ή σε πηγές πληροφοριών που έχουν αναπτύξει ένα σταθερό αρχείο αυθεντικότητας.
Το θέμα είναι πιθανό να προσελκύσει τα φώτα της δημοσιότητας την ερχόμενη προεκλογική περίοδο εν μέσω εντεινόμενων ανησυχιών για την αυθεντικότητα των πολιτικών πληροφοριών.
Η δύναμη του βίντεο
Το Generative AI βελτιώθηκε αλματωδώς πέρυσι, μεταβαίνοντας από εκπληκτικά έμπειρο σε τρομακτικά ρεαλιστικό .
«Είδαμε από τις αρχές του 2023 έως τα τέλη του 2023, οι εικόνες να περνούν με χαρακτηριστική ευκολία το οφθαλμικό τεστ», δήλωσε ο Ανατόλι Κβιτνίτσκι, ιδρυτής και διευθύνων σύμβουλος της υπηρεσίας ανίχνευσης τεχνητής νοημοσύνης AI or Not.
«Η πρόβλεψή μας είναι ότι το βίντεο θα έχει παρόμοια εξέλιξη και το 2024».
Το ρεαλιστικό βίντεο τεχνητής νοημοσύνης είναι «σίγουρα εντός των ορίων μας», δήλωσε ο Robert Marks, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο Baylor, ο οποίος έχει συμβάλει σημαντικά στον τομέα της μηχανικής μάθησης.
«Στο μέλλον, θα μπορεί να διαμορφώνεται εξ’ αρχής, και θα είναι πραγματικά ρεαλιστικό», είπε στους The Epoch Times.
Ορισμένοι από τους ειδικούς επεσήμαναν ότι οι ψευδείς πληροφορίες, πολιτικές ή άλλες, δεν είναι νέο φαινόμενο, και ότι εδώ και πολύ καιρό ήταν δυνατή η κατασκευή εικόνων.
«Τα ψεύτικα πράγματα υπάρχουν εδώ και πολύ καιρό. … Απλά τώρα έχουμε έναν αυτόματο τρόπο να τα παράγουμε», είπε ο κ. Μαρκς.

Ωστόσο, η παραγωγή πλαστών πλάνων για βίντεο ήταν πάντα δύσκολη και πολυδάπανη. Συνήθως, οι φάρσες σε βίντεο περιλαμβάνουν την επεξεργασία πραγματικών πλάνων.
Η δυνατότητα δημιουργίας ρεαλιστικού βίντεο από το μηδέν παρουσιάζει κίνδυνο σε ένα νέο επίπεδο, σύμφωνα με τον John Maly, μηχανικό υπολογιστών και δικηγόρο πνευματικής ιδιοκτησίας που έχει εμβαθύνει αρκετά στο θέμα της χρήσης και της κατάχρησης της τεχνητής νοημοσύνης.
«Ο κίνδυνος ενός βίντεο είναι ότι είναι πολύ πιο άμεσο και επιδραστικό», είπε στους The Epoch Times.
Όπως και σε προηγούμενες εκλογές, εάν προκύψει ένας «φάκελος» με ισχυρισμούς για έναν υποψήφιο, ο «μέσος άνθρωπος δεν πρόκειται να τον διαβάσει», είπε ο κ. Μάλι. Οι περισσότεροι άνθρωποι είναι πιθανό να μάθουν την ουσία των ισχυρισμών μέσω του φίλτρου του προτιμώμενου μέσου ενημέρωσης, υπό την προϋπόθεση ότι το μέσο θα επιλέξει να το καλύψει εξαρχής.
Αλλά το βίντεο είναι διαφορετικό, είπε.
«Αν υπάρχει ένα βίντεο 30 δευτερολέπτων με κάποιον να χρησιμοποιεί ρατσιστικές συκοφαντίες ή κάτι τέτοιο, αυτό θα έχει άμεσο αντίκτυπο σε όλους», είπε ο κ. Maly.
«Και νομίζω ότι η αμεσότητα θα είναι αυτό που θα το κάνει πραγματικά πιο επικίνδυνο εργαλείο από τα άλλα».
Η τεχνητή νοημοσύνη θα προσφέρει ισχυρά εργαλεία παραπληροφόρησης σε ομάδες και άτομα που είναι πολύ περιθωριακά για να αποκτήσουν τους μεγάλους πόρους που απαιτούνταν προηγουμένως για πρόσβαση σε τέτοιες δυνατότητες.
«Οι ακτιβιστές μπορούν ανέξοδα να συνδυάσουν αυτά τα πράγματα, να τα παραποιήσουν και να τα διαρρεύσουν προς οποιαδήποτε κατεύθυνση», είπε ο κ. Μάλι.
Η τεχνητή νοημοσύνη θα μπορούσε επίσης να ενισχύσει το απόρρητο των επιχειρήσεων παραπληροφόρησης, πρόσθεσε.
Αν κάποιος οργανώσει ένα ψεύτικο συμβάν, για παράδειγμα, ο κίνδυνος να το εκθέσει διαδραστικά αυξάνεται με κάθε συμμετέχοντα. Η δημιουργία ενός γεγονότος ψηφιακά μειώνει δραματικά τον αριθμό των ατόμων που γνωρίζουν τον πραγματικό δημιουργό του.
«Ένα άτομο μπορεί να δημιουργήσει ένα ολόκληρο ψεύτικο σενάριο και να το κατασκευάσει ένα ολόκληρο deepfake βίντεο, και μόνο αυτό το άτομο θα ξέρει ότι το δημιούργησε, κάτι που καθιστά πολύ πιο δύσκολο τον εντοπισμό του μετά το γεγονός αυτό», είπε ο κ. Maly.

Ώρα για ωριμότητα
Μέχρι στιγμής, η τεχνητή νοημοσύνη έχει χρησιμοποιηθεί με επιτυχία για τον χειρισμό βίντεο, όπως η προσθήκη ή η αφαίρεση αντικειμένων ή ο χειρισμός του προσώπου ενός ατόμου στο βίντεο. Μερικά από τα πιο πρόσφατα εργαλεία επιτρέπουν τη δημιουργία εντελώς συνθετικών βίντεοκλιπ, αν και μέχρι στιγμής περιορίζονται σε μόλις λίγα δευτερόλεπτα σε διάρκεια και απλή δράση, όπως ένα άτομο να γυρίζει το κεφάλι του ή να περπατά στο δρόμο.
Οι δυνατότητες αναμένεται να επεκταθούν σημαντικά τους επόμενους μήνες.
«Θα σκάσει ακριβώς την ώρα που πρέπει για να δημιουργηθεί παραπληροφόρηση γύρω από την πολιτική, καθώς πρόκειται να μεταβούμε σιγά σιγά στην προεκλογική μας περίοδο», είπε ο κ. Kvitnitsky στους The Epoch Times.
Ο κ. Μαρκς δεν θα έφτανε τόσο μακριά ώστε να προβλέψει πλήρως ρεαλιστικό βίντεο τεχνητής νοημοσύνης μέχρι την ημέρα των εκλογών (5 Νοεμβρίου 2024), αλλά δεν αποκλείει την πιθανότητα.
«Τι θα γίνει μέχρι τον Νοέμβριο; Δεν γνωρίζω. Αλλά η επιτάχυνση της τεχνητής νοημοσύνης είναι εκπληκτική», είπε.
Ο κ. Μαρκς αναμένει ότι εάν η τεχνολογία χρησιμοποιηθεί για να επηρεάσει τις εκλογές, τότε θα αποτελέσει την «έκπληξη του Οκτώβρη», αναφερόμενος στο γεγονός ότι ο μήνας αυτός είναι εκείνος που επηρεάζει πολλούς αναποφάσιστους σχετικά με το ποιον θα ψηφίσουν τελικά.
«Τώρα, έχουμε εργαλεία για να κάνουμε τις εκπλήξεις του Οκτωβρίου με πολύ μεγαλύτερη πολυπλοκότητα από ό,τι είχαμε στο παρελθόν», είπε, σημειώνοντας ότι «θα είναι πιο δύσκολο να αντιμετωπίσουμε και μην ξεχνάμε ότι ορισμένες κάλπες σε κάποιες περιοχές της χώρας θα ανοίξουν και έως δύο εβδομάδες πριν την επίσημη ημερομηνία, ενώ υπάρχει και η επιστολική ψήφος. Φοβάμαι ότι πολύς κόσμος θα εξαπατηθεί».
Ο κ. Maly προβλέπει ότι η απόλυτα ρεαλιστική τεχνολογία βίντεο AI απέχει δύο ως τρία χρόνια ακόμα.
«Δεν νομίζω ότι θα τελειοποιηθεί φέτος ή το 2025, αλλά και πάλι, πιστεύω ότι οι οντότητες με τις βαθύτερες τσέπες και οι πιο ισχυροί, θα καταφέρουν να χρησιμοποιήσουν τις εφαρμογές αυτές προτού ο υπόλοιπος κόσμος καταλάβει τι ακριβώς συμβαίνει. Πιθανώς θα είναι από τους πρώτους που θα καταφέρουν να βάλουν «ενέχυρο» σε ένα μη ανιχνεύσιμο deepfake που θα εντοπιστεί πολύ αργότερα», είπε.

Ανίχνευση AI
Παρά τις τεχνολογικές προόδους, το περιεχόμενο που δημιουργείται από AI ήταν, μέχρι πολύ πρόσφατα, ανιχνεύσιμο με ελάχιστη προσπάθεια. Οι συνθετικές φωνές μιλούν με αφύσικη κλίση, ειδικά όταν προσπαθούν να μιμηθούν συναισθήματα. Οι φιγούρες στις παραγόμενες εικόνες παρουσιάζουν επίσης αφύσικη ανατομία,
Ωστόσο, τους τελευταίους μήνες, αυτά τα ζητήματα έχουν μετριαστεί σημαντικά. Οι δημιουργίες τεχνητής νοημοσύνης μπορούν πλέον να μιλούν με τις φωνές πραγματικών ανθρώπων με ζωηρό, ακόμη και κινούμενο τρόπο. Οι εικόνες AI απεικονίζουν πλέον άτομα με φυσική υφή δέρματος και ακριβή ανατομία.
Υπάρχουν βέβαια ακόμα εμφανή ελαττώματα, ειδικά σε πιο περίπλοκες σκηνές, όπως όταν υπάρχουν πολλά άτομα σε μια εικόνα ή σε ένα βίντεο. Η τεχνητή νοημοσύνη φαίνεται να παλεύει ακόμα με το κείμενο στο παρασκήνιο. Μια πινακίδα της βιτρίνας στο παρασκήνιο, για παράδειγμα, δείχνει συχνά ανούσιο ή μπερδεμένο κείμενο.
«Ωστόσο, αν δεν υπάρχουν αυτά τα «δωράκια», είναι πολύ δύσκολο -ειδικά στις εικόνες υψηλότερης ποιότητας, όπως στα νεότερα μοντέλα- να εντοπιστούν», είπε ο κ. Kvitnitsky.
«Σε πολλές περιπτώσεις, δεν είναι ανιχνεύσιμο με γυμνό μάτι», είπε ο κ. Μαρκς.
Τα τελευταία χρόνια, αρκετές εταιρείες έχουν αναπτύξει εργαλεία που χρησιμοποιούν τεχνητή νοημοσύνη για τον εντοπισμό περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη.
Η AI or Not του κ. Kvitnitsky είναι μια από αυτές.
«Έχουμε εκπαιδεύσει το μοντέλο μας σε εκατομμύρια εικόνες, τόσο πραγματικές όσο και δημιουργημένες από AI. … Κάναμε το ίδιο πράγμα με τον ήχο», είπε.
Ο κ. Kvitnitsky είπε ότι «υπάρχουν πάντα τεχνουργήματα που αφήνει πίσω του κάθε αντίστοιχο μοντέλο τεχνητής νοημοσύνης»—ένας «συνδυασμός εικονοστοιχείων» ή μοτίβα μήκους κύματος υποδεύτερου σε ένα αρχείο ήχου, που θα ήταν ακατανόητα ή μη ανιχνεύσιμα για το ανθρώπινο μάτι ή το αυτί.

«Είναι αυτό το επίπεδο ευαισθησίας που απαιτείται», είπε.
Ο ιστότοπος AI or Not δεν αποθηκεύει τις εικόνες και τα αρχεία ήχου που ελέγχει και έτσι δεν μπορεί να παράγει συνολικά στατιστικά στοιχεία για την αξιοπιστία του εργαλείου, είπε ο κ. Kvitnitsky. Έχει πληροφορίες από ορισμένους από τους πελάτες του που αναφέρουν περίπου 90 τοις εκατό αξιοπιστίας.
Οι Epoch Times δοκίμασαν το εργαλείο σε έναν συνδυασμό περίπου 20 πραγματικών φωτογραφιών και εικόνων που δημιουργήθηκαν με τεχνητή νοημοσύνη. Οι περισσότερες από τις πραγματικές φωτογραφίες ήταν ανθρώπων, σε πορτρέτο ή φωτορεπορτάζ και επεξεργασμένα για φωτισμό, αντίθεση και τόνο χρώματος. Οι φωτογραφίες με τεχνητή νοημοσύνη ήταν όλες με άτομα σε στυλ selfie ή πορτραίτου, που παράγονται από την Midjourney V6, που αποτελεί μια δημοφιλή γεννήτρια δημιουργίας εικόνων AI που έχει συγκεντρώσει διθυραμβικές κριτικές για τον ρεαλισμό της. Η τεχνητή νοημοσύνη της AI or Not, προσδιόρισε σωστά όλες τις εικόνες τεχνητής νοημοσύνης, αλλά χαρακτήρισε λάθος μια από τις πραγματικές φωτογραφίες ως πιθανή δημιουργία τεχνητής νοημοσύνης.
Το πρόβλημα των ψευδών θετικών στοιχείων—η ερμηνεία του ανθρωπογενούς περιεχομένου με τεχνητό τρόπο—είναι ένας από τους λόγους για τους οποίους ο κ. Marks αμφιβάλλει ότι οι ανιχνευτές τεχνητής νοημοσύνης μπορούν να είναι ένας «αποτελεσματικός τρόπος» για την αντιμετώπιση των deepfakes. Εάν τα εργαλεία χρησιμοποιήθηκαν για τον εντοπισμό ψεύτικου περιεχομένου και εάν αυτό το περιεχόμενο καταργηθεί και οι χρήστες τιμωρηθούν για τη δημοσίευσή τους, τότε πολλοί θα τιμωρούνταν άδικα, διότι πραγματικές εικόνες θα τις περνάνε για ψεύτικες, είπε.
“Καμία από τις τεχνικές ανίχνευσης δεν είναι 100 % αποτελεσματικές”, δήλωσε ο κ. Marks.
Το YouTube που ανήκει στην Alphabet έχει ήδη ανακοινώσει ότι σχεδιάζει να θέσει σε κυκλοφορία νέους κανόνες που απαιτούν από τους χρήστες να αυτοπροσδιορίζουν τα βίντεο που περιέχουν ως “ρεαλιστικό τροποποιημένο ή συνθετικό υλικό”, όπως “ένα βίντεο που δημιουργήθηκε από AI που απεικονίζει ρεαλιστικά ένα γεγονός που δεν συνέβη ποτέ ή περιεχόμενο που δείχνει κάποιον να λέει ή να κάνει κάτι που δεν έκανε πραγματικά. “”Οι δημιουργοί που επιλέγουν με συνέπεια να μην αποκαλύπτουν αυτές τις πληροφορίες ενδέχεται να υπόκεινται σε αφαίρεση περιεχομένου, αναστολή από το πρόγραμμα συνεργατών YouTube ή άλλες κυρώσεις” ,αναφέρει η ανακοίνωση της 14ης Νοεμβρίου 2023 .

Ωστόσο, όταν ρωτήθηκαν από τους The Epoch Times, οι εκπρόσωποι της εταιρείας δεν είπαν ποια μέθοδος θα χρησιμοποιηθεί για να προσδιοριστεί ποιο περιεχόμενο δημιουργείται και ποιο δεν δημιουργείται από τεχνητή νοημοσύνη.
Ο κ. Maly εξέφρασε την ανησυχία του ότι μια τέτοια διαδικασία θα καταλήξει να είναι αδιαφανής και μονοδιάστατη.
«Εάν έχετε να κάνετε με τέτοιου είδους εταιρείες όπως το Facebook για παράδειγμα, δεν μπορείτε εύκολα να προσφύγετε για να διεκδικήσετε το δίκιο σας. Υπάρχουν απλά κάποια κουμπιά που πρέπει να πατήσετε για να συμπληρώσετε και καλά μια φόρμα παραπόνων σε περίπτωση που σας έχουν κατεβάσει άδικα κάποιο περιεχόμενο, αλλά δεν υπάρχει ένας άνθρωπος με τον οποίο θα μπορείτε να μιλήσετε για να συνεννοηθείτε.», είπε.
Το Facebook που ανήκει στη Meta δεν απάντησε σε αίτημα για πληροφορίες σχετικά με τον τρόπο με τον οποίο η εταιρεία σχεδιάζει να χειριστεί περιεχόμενο που δημιουργείται από AI.
«Μάχη εξοπλισμών»
«Υπάρχει ένα άλλο μειονέκτημα στους ανιχνευτές τεχνητής νοημοσύνης που χρησιμοποιούν οι μεγάλες εταιρείες: Μπορούν να ξεγελαστούν», είπε ο κ. Marks.
Επισήμανε μια μελέτη του 2022 με τίτλο «Δημιουργία, χρήση, κατάχρηση και ανίχνευση απομιμήσεων» του Hany Farid, καθηγητή επιστήμης υπολογιστών στο Πανεπιστήμιο Μπέρκλεϊ της Καλιφόρνια. Η μελέτη περιέγραψε μια μέθοδο που ονομάζεται «αντίπαλη διαταραχή», όπου ένα μοτίβο που είναι ανεπαίσθητο στο ανθρώπινο μάτι, αλλά ξεγελάει τον ανιχνευτή να περάσει την εικόνα ως αυθεντική, προστίθεται σε μια εικόνα που δημιουργείται από AI.
Οι Epoch Times δοκίμασαν την ιδέα αυτή επεξεργάζοντας επανειλημμένα μερικές από τις ιδιαίτερα ρεαλιστικές εικόνες AI της Midjourney V6. Το εργαλείο AI or Not αρχικά τις χαρακτήρισε σωστά ως πιθανώς τεχνητές, αλλά μετά από επαναλαμβανόμενες επεξεργασίες, όπως η προσθήκη και η μείωση του θορύβου, η αλλαγή μεγέθους, η ευκρίνεια και η επανειλημμένη προσαρμογή της έκθεσης και της αντίθεσης, οι περισσότερες από τις εικόνες χαρακτηρίστηκαν ως “πιθανώς ανθρώπινες”, αν και χρησιμοποίησε επίσης την προειδοποίηση περί “χαμηλής ποιότητας εικόνας” του εργαλείου.
Η προειδοποίηση εμφανίζεται όταν το εργαλείο ανιχνεύει αλλαγές στο φωτισμό, τη μορφή αρχείου «και άλλες τεχνικές παραβίασης», είπε ο κ. Kvitnitsky.
«Στόχος είναι να δώσουμε μια προειδοποίηση σε κάποιον, εφόσον θεωρήσουμε ότι η εικόνα απαιτεί περαιτέρω έρευνα», είπε.
Το πρόβλημα είναι ότι όλες οι αυθεντικές φωτογραφίες που χρησιμοποίησαν οι The Epoch Times για τη δοκιμή του εργαλείου ενεργοποίησαν επίσης την προειδοποίηση χαμηλής ποιότητας.
Ο κ. Kvitnitsky είπε ότι στους πελάτες του με συνδρομές “premium” παρέχονται όχι μόνο το δυαδικό αποτέλεσμα “πιθανό AI”/”πιθανός άνθρωπος”, αλλά και “βαθμολογία εμπιστοσύνης” για κάθε αποτέλεσμα.
Τόνισε ότι η ομάδα του βελτιώνει συνεχώς το εργαλείο της, το οποίο τώρα εκπαιδεύεται για να εντοπίζει εικόνες που δημιουργούνται από το νέο Midjourney V6.
«Βρίσκουμε ακραίες περιπτώσεις, τις εντοπίζουμε μέσα στη δική μας ομάδα και μετά τις επεξεργαζόμαστε για να βεβαιωθούμε ότι τις εντοπίσαμε σωστά», είπε ο κ. Kvitnitsky.
Η διαδικασία βελτίωσης, ωστόσο, λειτουργεί αμφίδρομα, τόνισε ο κ. Μαρκς.

«Μοιάζει με την μάχη που δίνουν τα κράτη για τον εξοπλισμό τους. Εσείς βρίσκετε έναν τρόπο να παραποιήσετε το βίντεο, κάποιος βρίσκει έναν τρόπο να το εντοπίσει. Αλλά μετά η άλλη πλευρά κοιτάζει να βρει το πως θα παρακάμψει τον τρόπο ανίχνευσης που εσείς έχετε χρησιμοποιήσει», είπε.
Τελικά, οι πλαστές εικόνες «θα φτάσουν στο σημείο να είναι πολύ δύσκολο να εντοπιστούν», προέβλεψε ο κ. Μαρκς.
Ο κ. Kvitnitsky αναγνώρισε ότι η κατάσταση είναι παρόμοια με το catch-up παιχνίδι της κυβερνοασφάλειας που παίζουν οι προγραμματιστές με τους χάκερ.
«Προσπαθούμε να μείνουμε μπροστά, αλλά ναι, αυτό ακριβώς είναι. Είναι μια νέα φάση κυβερνοασφάλειας», είπε, σημειώνοντας ότι ορισμένοι από τους μεγαλύτερους πελάτες του βρίσκονται στην αρένα της κυβερνοασφάλειας.
Επιπλέον, υπάρχουν ορισμένα αξιοσημείωτα εμπόδια στο να παιχτεί αυτό το κυνηγητό στον ατελές κόσμο των πληροφοριών, είπε ο κ. Maly.
Πρώτον, τα μοντέλα παραγωγής τεχνητής νοημοσύνης δεν αναπτύσσονται απαραίτητα σταδιακά, είπε.
«Κάθε δύο ή τρία χρόνια, τα κλείνουν εντελώς και ξεκινούν από το μηδέν. Και μπορεί να μην το βλέπετε αυτό ως χρήστης, επειδή εξακολουθούν να έχουν το ίδιο λογισμικό και εξακολουθούν να έχουν το ίδιο όνομα για το προϊόν», είπε ο κ. Maly. Και ένα νέο μοντέλο σημαίνει ότι το εργαλείο ανίχνευσης πρέπει να επανεκπαιδευτεί.
Επιπλέον, το τεχνητό βίντεο μεγαλύτερης μορφής μπορεί να είναι αρκετά περίπλοκο και πιθανό να παραχθεί από διάφορα εργαλεία που το καθένα αφήνει πίσω τις υπογραφές του, οι οποίες στη συνέχεια πολτοποιούνται στο τελικό προϊόν.
«Όσο περισσότερο συνθέτουμε πολλά πράγματα σε ένα προϊόν υψηλότερου επιπέδου, τόσο πιο δύσκολο είναι να ανιχνεύσουμε την προέλευση των διαφορετικών συστατικών», είπε ο κ. Maly.
Οι ψεύτικες δημιουργίες θα είναι επίσης πιο εύκολο να μπερδευτούν όταν απεικονίζουν χαοτικά γεγονότα όπως ένας πόλεμος ή μια εξέγερση.
«Θα έχουν ίσως μια περίεργη γωνία λήψης, ίσως θα είναι θολή η εικόνα, ίσως θα υπάρχει νερό ή βρωμιά στην κάμερα», είπε. «Επομένως, νομίζω ότι πιθανότατα θα ήταν πιο αποδεκτό να υπάρχει σύγχυση σε αυτού του είδους πλάνα, επειδή έχουμε συνηθίσει ότι κάτω από δύσκολες συνθήκες όπως σε έναν πόλεμο, δεν υπάρχει και η καλύτερη ποιότητα, οπότε τότε οι δημιουργοί ψεύτικου περιεχομένου θα κάνουν πραγματικά πάρτι».
Ψηφιακές υπογραφές
Ορισμένες εταιρείες και μη κυβερνητικές οργανώσεις έχουν προτείνει την εξάλειψη των deepfakes μέσω «κρυπτογραφικών υπογραφών».

Η ιδέα είναι ότι το λογισμικό που παράγει ένα κομμάτι περιεχομένου θα αποθηκεύει σε αυτό ορισμένες κωδικοποιημένες πληροφορίες, όπως πότε, πού και από ποιον δημιουργήθηκε. Στη συνέχεια, μια κρυπτογραφημένη έκδοση του κώδικα θα αποθηκευτεί σε κάποια αξιόπιστη τοποθεσία. Τότε θα ήταν δυνατό να ελεγχθεί η «προέλευση» του περιεχομένου.
«Οι εταιρείες θα πρέπει να αναπτύξουν αποτελεσματικές μεθόδους για την επισήμανση περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη, που συνεπάγεται τη χρήση κρυπτογραφικής υπογραφής, και να συντονίζονται με την κοινωνία των πολιτών για να τυποποιήσουν τον τρόπο με τον οποίο ο κλάδος τεκμηριώνει την προέλευση συγκεκριμένου περιεχομένου», δήλωσε η Freedom House, μια ομάδα υπεράσπισης των ανθρωπίνων δικαιωμάτων.
Η ομάδα προτείνει επίσης στις εταιρείες να «επενδύσουν στην ανάπτυξη λογισμικού για τον εντοπισμό περιεχομένου που δημιουργείται από AI».
«Το πλεονέκτημα αυτών των προσεγγίσεων που βασίζονται στην προέλευση είναι ότι μπορούν να αντιμετωπίσουν τη δημιουργία και κατανάλωση περιεχομένου σε κλίμακα Διαδικτύου», είπε ο κ. Farid στην εργασία του το 2022.
«Το μειονέκτημα είναι ότι θα απαιτήσουν ευρεία υιοθέτηση από δημιουργούς, εκδότες και γίγαντες των μέσων κοινωνικής δικτύωσης».
Η ευρεία υιοθέτηση δεν φαίνεται να είναι επικείμενη. Ένα από τα προβλήματα του συστήματος συνοψίζεται στην ιδιωτικότητα. Μια ελεύθερη κοινωνία δεν θέλει απαραίτητα να διευκολύνει τις αρχές να εντοπίσουν την προέλευση κάθε πληροφορίας, ιδιαίτερα όταν πρόκειται για κάποια πολιτική ομιλία.
Οι υποστηρικτές του συστήματος προτείνουν επομένως μια παραλλαγή που θα επέτρεπε στους δημιουργούς περιεχομένου να περιορίσουν τις πληροφορίες «προέλευσης» που θέλουν να μοιραστούν. Τότε, ωστόσο, το σύστημα δεν θα αποδείκνυε την ακρίβεια των πληροφοριών, αλλά απλώς ότι είναι οι πληροφορίες που ήθελε να μοιραστεί ο δημιουργός.
Ευρύτερος αντίκτυπος
Η εισαγωγή ρεαλιστικών δημιουργιών τεχνητής νοημοσύνης είναι πιθανό να αναδιαμορφώσει την διαδικτυακή κουλτούρα και να διαβρώσει την εμπιστοσύνη στις ψηφιακές πληροφορίες που δεν διαθέτουν έλεγχο ταυτότητας εκτός σύνδεσης.
«Η διαφοροποίηση της αλήθειας θα είναι πολύ πιο δύσκολη τώρα από ό,τι ήταν ποτέ στην ιστορία μας», είπε ο κ. Μαρκς.
Ακόμη και η απλή ύπαρξη εργαλείων deepfake δημιουργεί αυτό που ο κ. Farid αποκάλεσε «μέρισμα του ψεύτη» — στο οποίο οι άνθρωποι μπορούν να προσπαθήσουν να απορρίψουν τις γνήσιες πληροφορίες ως πλαστές.
Θεωρεί «πιθανό» ότι «κάποια εκδοχή μιας λύσης βασισμένης στην προέλευση, παράλληλα με τα συστήματα ανίχνευσης … θα χρειαστεί για να βοηθήσει στην αποκατάσταση της εμπιστοσύνης στο διαδικτυακό περιεχόμενο».
Ο κ. Kvitnitsky εξέφρασε τη βεβαιότητα ότι η εταιρεία του θα βοηθήσει στην ενίσχυση αυτής της εμπιστοσύνης.
Ωστόσο, το να βασιζόμαστε στην τεχνητή νοημοσύνη για να αντιμετωπίσουμε την τεχνητή νοημοσύνη κατευθύνει τους χρήστες αναγκαστικά να παραχωρήσουν τον έλεγχο των πληροφοριών τους για να διακρίνουν την αλήθεια, είπε ο κ. Maly.
«Αυτό φαίνεται να είναι ακριβώς το κοινωνικό οικοσύστημα στο οποίο βρισκόμαστε στα πρόθυρα να εισέλθουμε: [Εμείς] δεν πιστεύουμε ότι τα AI δεν μας εξαπατούν, αλλά ο μόνος τρόπος να τα ελέγξουμε είναι χρησιμοποιώντας άλλα AI που δεν δημιουργήσαμε, », είπε.
Θα μπορούσε ακόμη και να οδηγήσει σε μια κατάσταση στην οποία μερικές γιγάντιες εταιρείες τεχνολογίας θα προσφέρουν τόσο παραγωγή τεχνητής νοημοσύνης όσο και ανίχνευση τεχνητής νοημοσύνης, «ελέγχοντας και τις δύο πλευρές της εξίσωσης», είπε ο κ. Μάλι.

Είναι απίθανο τα εργαλεία ανίχνευσης να μπορέσουν ποτέ να ελεγθούν, είπε.
«Εάν η τεχνητή νοημοσύνη είναι ανοιχτού κώδικα, ώστε να μπορεί να ελεγχθεί, τότε μπορεί να αναλυθεί και να παρακαμφθεί, οπότε εικάζω ότι θα είναι ένα οικοσύστημα κλειστών, αποκλειστικών λύσεων, όπως έχουμε ήδη με το λογισμικό προστασίας από ιούς – υπάρχει μια σχετική αξιοπιστία, αλλά εξακολουθούμε να κάνουμε υποθέσεις σχετικά με τις πρακτικές ασφαλείας και τα κίνητρα του παρόχου μας», είπε ο κ. Maly.
Θα είναι ζωτικής σημασίας για τους ανθρώπους να εκπαιδεύονται σχετικά με τη λειτουργία και τις δυνατότητες της τεχνητής νοημοσύνης, είπε.
«Κάποιος βαθμός γνώσης των AI και η παρακολούθηση ειδήσεων AI θα είναι υποχρεωτική για όποιον θέλει να έχει ελπίδα να μάθει την αλήθεια, διαφορετικά η εμπιστοσύνη των δεδομένων που δημιουργούνται από AI γίνεται σχεδόν σαν να βασίζεις τη ζωή σου σε ένα μαγικό παιχνίδι με οκτώ μπάλες», κ. Maly είπε. «Θα μπορούσε να ειπωθεί ότι ο εφησυχασμός ήταν πάντα ο εχθρός της αλήθειας, αλλά το κόστος του για την κοινή γνώμη πρόκειται να γίνει πολύ πιο απότομο και πολύ πιο μεγάλο».
Ο κ. Marks πρότεινε ότι οι άνθρωποι θα πρέπει να «πάνε σε κάποια παλιά εργαλεία» για να αξιολογήσουν την ακρίβεια του ψηφιακού περιεχομένου.
«Κοιτάξτε την πηγή, τον βαθμό ενδιαφέροντος που έχουν για την προώθηση του άρθρου. … Υπάρχει μια σειρά από εργαλεία που μπορούν να χρησιμοποιηθούν για την αξιολόγηση της αλήθειας. Είναι 100 τοις εκατό αποτελεσματικά; Όχι. Αλλά νομίζω ότι είναι απίστευτα, απίστευτα χρήσιμα», είπε.
«Αυτό δεν είναι πρόβλημα με την τεχνητή νοημοσύνη, αυτό είναι ένα πρόβλημα με το πρόβλημα. Έχετε παραπληροφόρηση όλη την ώρα. Και το πρόβλημα του προβλήματος είναι ότι οι άνθρωποι βγάζουν ψεύτικα πράγματα και πρέπει να καταλάβετε αν είναι αλήθεια ή όχι.
«Το ψεύτικο έχει γίνει πιο ρεαλιστικό λόγω της τεχνητής νοημοσύνης, αλλά το πρόβλημα παραμένει το ίδιο. Και δεν νομίζω ότι υπάρχει άλλος τρόπος να γίνει αυτό εκτός από τον ελεύθερο τύπο και τον πολιτικό λόγο».
«Deepfake περιεχόμενο»: Πώς η τεχνητή νοημοσύνη και το ψεύτικο περιεχόμενο θα μπορούσαν να επηρεάσουν τις εκλογές του 2024 στις ΗΠΑ
Καθώς οι προεδρικές εκλογές των ΗΠΑ του 2024 πλησίαζαν, οι ανησυχίες για την επιρροή της τεχνητής νοημοσύνης (AI) και της τεχνολογίας deepfake στην εκλογική διαδικασία είχε φτάσει σε νέα ύψη.
Τα Deepfakes είναι άκρως πειστικά και παραπλανητικά ψηφιακά μέσα—συνήθως βίντεο, ηχογραφήσεις ή εικόνες—που παράγονται ολοένα και περισσότερο με χρήση τεχνητής νοημοσύνης και συχνά για παραπλανητικούς ή δόλιους σκοπούς.
Οι ειδικοί στον τομέα της τεχνητής νοημοσύνης και της ανίχνευσης του deepfake παρείχαν πολύτιμες πληροφορίες σχετικά με τις προκλήσεις που θέτει η παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη και τα μέτρα που λαμβάνονται για την καταπολέμησή τους.

Ο Rijul Gupta, συνιδρυτής και Διευθύνων Σύμβουλος της DeepMedia_AI , τόνισε την ανησυχητική άνοδο της τεχνολογίας deepfake και τις επιπτώσεις της στις εκλογές του 2024.
«Το 2024 θα είναι τόσο «βαθιά» ψεύτικες εκλογές με τρόπους που δεν ήταν ξανά ποτέ προηγούμενες εκλογές», είπε. «Θα καθιερωθούν πλήρως το 2024, και αυτό οφείλεται στην πρόσβαση σε αυτήν την τεχνολογία. Βασικές εκδόσεις αυτής της τεχνολογίας υπήρχαν το 2020, αλλά η ποιότητα δεν ήταν αρκετά καλή για να ξεγελάσει τους ανθρώπους.
Ο κ. Gupta είπε ότι η ποιότητα βελτιώθηκε το 2022 και συνεχίζει να προοδεύει μηνιαίως. Το περιεχόμενο γίνεται αρκετά καλό ώστε ο μέσος άνθρωπος να μπορεί να το δει ή να το ακούσει στο TikTok ή στο YouTube και να πειστεί ότι είναι πραγματικό.
«Δεν ψάχνουν για το ψεύτικο», είπε. «Δεν προσπαθούν να προσδιορίσουν ότι είναι ψεύτικο. Τους ακούγεται αληθινό, οπότε απλώς υποθέτουν ότι είναι αληθινό. Αλλά το τελευταίο εμπόδιο που υπήρχε για να γίνει πραγματικά τεράστιο πρόβλημα ήταν η πρόσβαση. Έτσι, το πρώτο εμπόδιο ήταν η ποιότητα, και αυτό μόλις επιτεύχθηκε πέρυσι. Το δεύτερο εμπόδιο ήταν η πρόσβαση».

Τώρα, ο κ. Gupta λέει ότι τα εργαλεία είναι διαθέσιμα στο διαδίκτυο για όλους και είναι συνήθως δωρεάν.
«Τις περισσότερες φορές, δεν χρειάζεστε καν πιστωτική κάρτα και μπορείτε να δημιουργήσετε Deepfake περιεχόμενο οποιουδήποτε, για οποιοδήποτε λόγο, σε μόλις πέντε δευτερόλεπτα», είπε. «Αυτό είναι το καινούργιο που υπάρχει. Αυτό ακριβώς συνέβη τους τελευταίους μήνες — και γι’ αυτό το 2024 θα είναι οι βαθιά ψεύτικες εκλογές».
Είναι ένα θέμα που «με κρατάει ξύπνιο τη νύχτα», είπε ο κ. Gupta. «Αυτός είναι ένας από τους σημαντικότερους λόγους για τους οποίους ίδρυσα την DeepMedia, για να είμαι μπροστάρης στην πάταξη της παραπληροφόρησης και του ψεύτικου περιεχομένου», είπε. «Πριν από περίπου έξι χρόνια, είδα τι επρόκειτο να συμβεί. Είδα ένα μέλλον όπου οι άνθρωποι δεν θα μπορούσαν να καταλάβουν τι είναι αληθινό και τι ψεύτικο».
Ανίχνευση Deepfakes
Για την αντιμετώπιση της αυξανόμενης απειλής των deepfakes, η σύντροφος του κ. Gupta, Emma Brown, συνιδρύτρια και διευθύνων σύμβουλος της DeepMedia, τόνισε τη σημασία των ακριβών και επεκτάσιμων μεθόδων ανίχνευσης.
Η DeepMedia έχει αναπτύξει προηγμένες και έξυπνες δυνατότητες ανίχνευσης ψεύτικων περιεχομένων, που όπως σημειώνει, έχουν επικυρωθεί από την κυβέρνηση των ΗΠΑ και εταιρείες παγκοσμίως.
Η κ. Brown είπε ότι η DeepMedia διαθέτει τις πιο ακριβείς δυνατότητες ανίχνευσης ψεύτικων προσώπων και φωνών παγκοσμίως, διασφαλίζοντας αξιόπιστη αναγνώριση περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη.
«Η επεκτασιμότητα είναι ένας άλλος παράγοντας που είναι σημαντικός για την εταιρεία», είπε, προσθέτοντας ότι η DeepMedia έχει τη δυνατότητα να επεξεργάζεται έναν τεράστιο αριθμό βίντεο καθημερινά, επιτρέποντας τον γρήγορο εντοπισμό των deepfakes σε μεγάλα σύνολα δεδομένων.
Τρίτον, είπε ότι η στιβαρότητα της πλατφόρμας του DeepMedia προσφέρει προηγμένες δυνατότητες, όπως η ακριβή κατηγοριοποίηση περιεχομένου, επιτρέποντας στους χρήστες να εξάγουν συγκεκριμένες πληροφορίες από περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη.
«Συμμετέχουμε ενεργά στη διασφάλιση των εκλογών μας πριν από τις απειλές της που θα προκαλέσει η τεχνητή νοημοσύνη», είπε η κ. Brown.

Ενδυνάμωση και ευαισθητοποίηση του κοινού
Αναγνωρίζοντας την ανάγκη για ευαισθητοποίηση του κοινού και συμμετοχή στην καταπολέμηση της παραπληροφόρησης που δημιουργείται από την τεχνητή νοημοσύνη, η DeepMedia διέθεσε πρόσφατα τις δυνατότητες ανίχνευσης deepfake δωρεάν στο X, παλαιότερα γνωστό ως Twitter.
Οι χρήστες μπορούν να προσθέσουν ετικέτα στο @DeepMedia και να προσθέσουν το hashtag #DeepID σε οποιοδήποτε περιεχόμενο πολυμέσων, και το bot Twitter της DeepMedia θα τρέξει αμέσως το περιεχόμενο μέσω του συστήματος ανίχνευσης deepfake και θα παρέχει αποτελέσματα στο νήμα, είπε ο κ. Gupta.
«Ελπίζουμε ότι αυτό θα ενδυναμώσει τον μέσο χρήστη, τους πολίτες και τους δημοσιογράφους με τα εργαλεία που χρειάζονται για να προστατευτούν από την παραπληροφόρηση της τεχνητής νοημοσύνης», είπε.
Η κίνηση αυτή αντιπροσωπεύει ένα σημαντικό βήμα προς τον εκδημοκρατισμό της καταπολέμησης της παραπληροφόρησης και της παραπληροφόρησης που βασίζεται στην τεχνητή νοημοσύνη.
Οι προεδρικές εκλογές των ΗΠΑ του 2024 θα χρησιμεύσουν ως κρίσιμο τεστ της ικανότητας καταπολέμησης της επιρροής των deepfakes στη δημόσια αντίληψη και στα εκλογικά αποτελέσματα. Ο κ. Gupta τόνισε ότι η πρόκληση εκτείνεται πέρα από τις τεχνικές λύσεις και προτρέπει τον κόσμο να παραμείνει σε εγρήγορση και ενημέρωση.
«Η συγχώνευση της τεχνητής νοημοσύνης και των εκλογών απαιτεί τη συλλογική μας προσοχή και δράση για τη διασφάλιση της ακεραιότητας των δημοκρατικών διαδικασιών μας», είπε ο κ. Gupta.

Όταν ρωτήθηκε εάν η τεχνητή νοημοσύνη ή τα deepfakes παρατηρήθηκαν στις εκλογές του 2024, η κα Brown είπε ότι τα εντόπισε σε λίγες περιπτώσεις και ευτυχώς δεν επηρέασαν πολύ κόσμο.
Ένα ψεύτικο βίντεο φέρεται να έδειχνε τη Χίλαρι Κλίντον να υποστηρίζει τον Ρεπουμπλικάνο υποψήφιο για την προεδρία κυβερνήτη της Φλόριντα, Ρον Ντε Σάντις.
«Ήταν εντελώς ψεύτικο και οι ανιχνευτές μας μπόρεσαν να το εντοπίσουν με υψηλό βαθμό ακρίβειας», είπε η κ. Brown. «Αλλά τέτοιες περιπτώσεις θα μπορούσαν να είναι επιζήμιες για την εκστρατεία του DeSantis. Επομένως, θα το παρακολουθούμε ολοένα και περισσότερο, ειδικά καθώς η κάλυψη στην προεκλογική περίοδο πραγματικά αυξάνεται και εντείνεται».
Εμπιστεύεστε τις πηγές σας
Η εταιρεία τεχνητής νοημοσύνης Conversica δραστηριοποιείται στον χώρο της τεχνητής νοημοσύνης από το 2007. Ο Διευθύνων Σύμβουλος της, Jim Kaskade, προσέφερε μια μοναδική προοπτική για τον ρόλο της τεχνητής νοημοσύνης στις εκλογές του 2024.
«Μας καθοδηγεί ο θετικός σκοπός και η θετική πτυχή της εφαρμοσμένης τεχνητής νοημοσύνης», είπε.
Αυτή η δέσμευση υποδηλώνει ότι οι τεχνολογίες τεχνητής νοημοσύνης, όταν χρησιμοποιούνται προσεκτικά, μπορούν να συμβάλουν στη βελτίωση της εκλογικής διαδικασίας.
Η τεχνητή νοημοσύνη θα μπορούσε να είναι μια δύναμη για το καλό των εκλογών, είπε ο κ. Kaskade. Τα εργαλεία που βασίζονται στην AI μπορούν να βελτιώσουν την επικοινωνία, να παρέχουν πολύτιμες πληροφορίες για τις προτιμήσεις των ψηφοφόρων και να εξορθολογίσουν τις προσπάθειες εκστρατείας. «Είναι σημαντικό να βρεθεί μια ισορροπία μεταξύ της μόχλευσης της τεχνητής νοημοσύνης για θετικούς σκοπούς και της προστασίας από την κακή χρήση της», είπε.
Τόνισε την ανάγκη για ηθική χρήση του περιεχομένου που δημιουργείται από την AI στον πολιτικό λόγο και για επαγρύπνηση για τη διασφάλιση της αυθεντικότητας των πληροφοριών σε εκλογικά πλαίσια, γεγονός που υπογραμμίζει τη σημασία της εμπιστοσύνης στις πηγές, στην εποχή του περιεχομένου που δημιουργείται από AI.
«Νομίζω ότι είναι απλώς θεμελιώδες», είπε ο κ. Kaskade. «Πρέπει να ερευνήσεις την πηγή σου».
Αναγνώρισε ότι, ενώ η τεχνολογία δεν έχει ακόμη καλύψει πλήρως τη διαφοροποίηση μεταξύ πραγματικού και πλαστού περιεχομένου, μπορεί κανείς να είναι προσεκτικός αξιολογώντας την αξιοπιστία των πηγών που παρέχουν πληροφορίες.

Η πρόκληση για το 2024
Η πρόκληση που θέτουν τα deepfakes στις εκλογές του 2024 είναι πολύπλευρη. Με την ταχεία πρόοδο της τεχνολογίας AI, κακόβουλοι παράγοντες μπορούν εύκολα να δημιουργήσουν εξαιρετικά πειστικό ψεύτικο περιεχόμενο—συμπεριλαμβανομένων βίντεο, ηχογραφήσεων και εικόνων—για να χειραγωγήσουν την κοινή γνώμη και να σπείρουν διχόνοια.
Αυτό αποτελεί σημαντική απειλή για τη διάβρωση της εμπιστοσύνης στους πολιτικούς υποψηφίους και τους θεσμούς.
Απαιτεί συλλογική προσπάθεια από τις κυβερνήσεις, τις εταιρείες τεχνολογίας και την κοινωνία ως σύνολο για την ευαισθητοποίηση, την προώθηση του ψηφιακού γραμματισμού και τη θέσπιση κανονισμών για την καταπολέμηση της κακόβουλης χρήσης της τεχνητής νοημοσύνης, είπαν οι ειδικοί.
Ο κ. Kaskade προέτρεψε τους υποψηφίους που διεκδικούν αξιώματα να προτείνουν πολιτικές και κανονισμούς για την τεχνητή νοημοσύνη που θα διασφαλίζουν ότι η χρήση της είναι επωφελής για την κοινωνία, παρά επιβλαβής και διχαστική.
Θα εναπόκειται επίσης στους ψηφοφόρους και τους πολίτες να ενημερώνονται για τα deepfakes και την πρόοδο της τεχνητής νοημοσύνης και να γνωρίζουν πώς να προστατεύονται χρησιμοποιώντας τις δεξιότητες αναλυτικής σκέψης τους και αξιολογώντας κριτικά τις πληροφορίες που συναντούν στο διαδίκτυο.
Πιο Δημοφιλή
Ο Μητσοτάκης ως ιδεολογικό υβρίδιο νεοφιλελευθερισμού και οικογενειοκρατίας
12 τόνους ακατάλληλα προϊόντα ετοιμάζονταν να ρίξουν στην αγορά στις εορτές
Ηγέτη όπως ο Καποδίστριας χρειάζεται ο Ελληνισμός
Η κυβέρνηση ως θεατής στον εποικισμό της χώρας
Πιο Πρόσφατα
Σαμαράς: «Το 2026 απαιτεί αλήθεια και ευθύνη»
Κάστρα, καρέκλες και σιωπή: πώς θάβεται ο αγώνας των αγροτών στο Ηράκλειο