Τα προειδοποιητικά σημάδια της τεχνητής νοημοσύνης που δεν πρέπει να αγνοήσουμε

Την περασμένη εβδομάδα συνέβησαν ορισμένα γεγονότα που οι περισσότεροι άνθρωποι προσπέρασαν μάλλον αδιάφορα: Δύο κέντρα δεδομένων της Amazon στα Ηνωμένα Αραβικά Εμιράτα επλήγησαν κατά τη διάρκεια ιρανικών επιθέσεων. Μια άλλη εγκατάσταση στο Μπαχρέιν φέρεται να υπέστη ζημιές όταν ένα μη επανδρωμένο αεροσκάφος προσέκρουσε κοντά. Για τις αμερικανοϊσραηλινές επιθέσεις, που εκκίνησαν τη σύγκρουση, λέγεται ότι χρησιμοποίησαν συστήματα στόχευσης με τη βοήθεια τεχνητής νοημοσύνης. Ήταν μια σύντομη στιγμή στη ροή των ειδήσεων, η οποία γρήγορα επισκιάστηκε από την επόμενη πολιτική είδηση.

Ωστόσο, οι συνέπειες είναι δύσκολο να αγνοηθούν. Η τεχνητή νοημοσύνη έχει πλέον περάσει στο πεδίο της ενεργού γεωπολιτικής σύγκρουσης. Η υποδομή που τροφοδοτεί τον ψηφιακό κόσμο — τα ίδια συστήματα που αποθηκεύουν οικογενειακές φωτογραφίες, λειτουργούν επιχειρήσεις και απαντούν σε ερωτήσεις στα τηλέφωνά μας — έχει μετατραπεί σε στρατηγική υποδομή εν καιρώ πολέμου. Αλγόριθμοι ενσωματωμένοι αθόρυβα στην πολιτική τεχνολογία βοηθούν πλέον στη λήψη αποφάσεων για το πού θα χτυπήσουν τα όπλα.

Η ανθρωπότητα πέρασε ένα κατώφλι και οι περισσότεροι από εμάς απλώς προσπεράσαμε. Παρ’ όλα αυτά, γνωρίζουμε από την ιστορία ότι οι μεγάλες τεχνολογικές μεταβολές σπάνια ανακοινώνονται με μία μόνο δραματική στιγμή. Εμφανίζονται αρχικά ως σημάδια σε μικρές ειδήσεις, σε διαφωνίες πολιτικής, σε ανεξήγητες αποχωρήσεις ανθρώπων εκ των έσω.

Λίγο καιρό πριν, η ομοσπονδιακή κυβέρνηση των ΗΠΑ αφαίρεσε από τα δίκτυά της τα συστήματα τεχνητής νοημοσύνης που είχε αναπτύξει η Anthropic. Λίγο αργότερα, η OpenAI παρενέβη συνάπτοντας δική της συμφωνία στον τομέα της άμυνας. Το κοινό δεν γνωρίζει ολόκληρη την ιστορία πίσω από αυτή την αλλαγή. Δεν γνωρίζουμε ακριβώς ποιες απαιτήσεις διατυπώθηκαν πίσω από κλειστές πόρτες, ποια ηθικά προστατευτικά όρια αμφισβητήθηκαν ή γιατί μία από τις κορυφαίες εταιρείες ΤΝ στον κόσμο απομακρύνθηκε ξαφνικά από τα ομοσπονδιακά συστήματα. Αυτό το περιστατικό αποτελεί ένα ακόμη σημάδι.

Μέσα στην ίδια τη βιομηχανία της ΤΝ, οι αποχωρήσεις ερευνητών ασφάλειας αποτελούν ακόμα μία αθόρυβη ένδειξη. Τα τελευταία χρόνια, πολυάριθμοι ερευνητές υψηλού επιπέδου, οι οποίοι είχαν αναλάβει τη μελέτη των κινδύνων και της ασφάλειας των προηγμένων συστημάτων ΤΝ, έχουν αποχωρήσει από τις θέσεις τους σε κορυφαίες εταιρείες και ερευνητικά εργαστήρια. Σε πολλές από αυτές τις περιπτώσεις οι εξηγήσεις που δόθηκαν στη δημοσιότητα ήταν ελάχιστες. Οι ερευνητές αυτοί σπάνια περιγράφουν τις εσωτερικές συζητήσεις που είδαν να διεξάγονται. Λίγοι βρίσκονται σε θέση να το κάνουν.

Τέτοιου είδους μοτίβα έχουν σημασία. Όταν άνθρωποι που βρίσκονται πιο κοντά σε μια ισχυρή τεχνολογία αρχίζουν να απομακρύνονται αθόρυβα, είναι πολύ πιθανό να έχουν δει ζητήματα τα οποίατο κοινό δεν έχει ακόμη κληθεί να εξετάσει. Η ιστορία έχει γνωρίσει παρόμοιες στιγμές. Στις αρχές της δεκαετίας του 1940, οι επιστήμονες που εργάζονταν σε αυτό που αργότερα έγινε γνωστό ως «Manhattan Project» συνειδητοποίησαν ότι κατασκεύαζαν κάτι πρωτοφανές. Ορισμένοι εξέφρασαν ανησυχίες για το τι θα μπορούσε να σημαίνει η τεχνολογία αυτή μόλις έφευγε από το εργαστήριο. Ωστόσο, αυτές οι συζητήσεις διεξάγονταν σε μεγάλο βαθμό πίσω από κλειστές πόρτες. Το κοινό κατάλαβε το διακύβευμα μόνο αφότου  η τεχνολογία χρησιμοποιήθηκε.

Η τεχνητή νοημοσύνη ενδέχεται να εξελίσσεται με παρόμοιο τρόπο. Βλέπουμε ήδη τα σημάδια: ερευνητές που αποχωρούν, κυβερνήσεις που διαφωνούν για ηθικά προστατευτικά όρια και συστήματα ΤΝ που εμφανίζονται μέσα σε πραγματικές γεωπολιτικές συγκρούσεις. Κι όμως, η δημόσια συζήτηση για την τεχνητή νοημοσύνη εξακολουθεί να διαμορφώνεται από μια σειρά παραδοχών που καθιστούν δυσκολότερη την αναγνώριση των ενδείξεων.

Παρανόηση #1: Η ΤΝ είναι απλώς ένα εργαλείο

Η αναλογία αυτή είναι καθησυχαστική. Φανταζόμαστε την τεχνητή νοημοσύνη όπως φανταζόμαστε έναν αριθμομηχανή ή έναν επεξεργαστή κειμένου — μηχανές που εκτελούν εργασίες αποτελεσματικά, παραμένοντας σταθερά υπό ανθρώπινο έλεγχο. Τα εργαλεία μπορούν να μετατραπούν σε στρατηγικά μέσα σε έναν πόλεμο. Όμως δεν παράγουν τα δικά τους αποτελέσματα με τρόπους που μερικές φορές ακόμη και οι δημιουργοί τους δυσκολεύονται να εξηγήσουν ούτε απαιτούν συνεχή διαπραγμάτευση για τα ηθικά όρια της συμπεριφοράς τους.

Τα σύγχρονα συστήματα ΤΝ δεν προγραμματίζονται γραμμή προς γραμμή με την παραδοσιακή έννοια. Εκπαιδεύονται σε τεράστια σύνολα δεδομένων και μαθαίνουν τα μοτίβα που υπάρχουν μέσα σε αυτά. Η συμπεριφορά τους προκύπτει από στατιστικές σχέσεις και όχι από ρητές εντολές. Οι ερευνητές της ΤΝ περιγράφουν αυτά τα συστήματα ως «διαμορφωμένα μέσω εκπαίδευσης» και όχι κατασκευασμένα. Αυτό τα καθιστά θεμελιωδώς διαφορετικά από τα εργαλεία που έχουμε συνηθίσει να ελέγχουμε.

Παρανόηση #2: Η ΤΝ είναι ουδέτερη

Τα συστήματα ΤΝ εκπαιδεύονται πάνω σε πληροφορίες που παράγονται από ανθρώπους. Οι πληροφορίες αυτές αντανακλούν ανθρώπινες προκαταλήψεις, ιστορικές συγκρούσεις και άνιση εκπροσώπηση. Όταν ένα σύστημα ΤΝ παράγει μια απάντηση, συνθέτει μοτίβα που απορρόφησε από αυτό το υλικό. Η ΤΝ έχει αναπτύξει άριστες γλωσσικές ικανότητες που μπορούν να δημιουργήσουν την ψευδαίσθηση αντικειμενικότητας. Όμως η σίγουρη διατύπωση δεν είναι το ίδιο με την αλήθεια.

Οι πρόσφατες διαφωνίες μεταξύ κυβερνήσεων και εταιρειών ΤΝ το δείχνουν ξεκάθαρα. Οι συζητήσεις για τα όρια της παρακολούθησης ή για αυτόνομα όπλα δεν είναι απλώς τεχνικά ζητήματα. Είναι ηθικά ζητήματα. Τα προστατευτικά όρια υπάρχουν ακριβώς επειδή τα ίδια τα συστήματα δεν είναι ουδέτερα.

Παρανόηση #3: Οι άνθρωποι ελέγχουν πλήρως την ΤΝ

Το παραδοσιακό λογισμικό λειτουργεί σύμφωνα με ρητές εντολές που έχουν γραφτεί από προγραμματιστές. Τα σύγχρονα συστήματα ΤΝ λειτουργούν διαφορετικά. Τα αποτελέσματά τους είναι πιθανοτικά και παράγονται μέσα από πολλαπλά επίπεδα σχέσεων που έχει μάθει το μοντέλο.

Οι προγραμματιστές χρησιμοποιούν πλέον συστήματα ΤΝ για να δημιουργούν άλλα συστήματα ΤΝ και για να διαχειρίζονται άλλα συστήματα ΤΝ. Χρησιμοποιούν την ΤΝ για να γράφουν κώδικα που στο παρελθόν θα έγραφαν οι ίδιοι και αυτό συμβαίνει τόσο γρήγορα ώστε δεν μπορούν να παρακολουθήσουν ή ακόμη και να κατανοήσουν κάθε γραμμή κώδικα που δημιουργείται από συστήματα τα οποία δεν κοιμούνται ποτέ. Ο έλεγχος, σε αυτό το περιβάλλον, δεν είναι ένας διακόπτης. Είναι περισσότερο ένα κινούμενο όριο που κανείς δεν έχει δει ποτέ πριν, και η γλώσσα που θα το ορίσει βρίσκεται ακόμη στα πρώτα της βήματα.

Παρανόηση #4: Οι ειδικοί γνωρίζουν προς τα πού κατευθύνεται η εξέλιξη

Στα περισσότερα επιστημονικά πεδία, οι ειδικοί διαφωνούν μέσα σε ένα σχετικά στενό φάσμα. Στην τεχνητή νοημοσύνη, το εύρος των απόψεων είναι ασυνήθιστα μεγάλο. Ορισμένοι ερευνητές πιστεύουν ότι η ΤΝ θα φέρει επανάσταση στις ιατρικές και στις επιστημονικές ανακαλύψεις. Άλλοι προειδοποιούν ότι η τεχνολογία θα μπορούσε να προκαλέσει σοβαρή κοινωνική αναστάτωση εάν η ανάπτυξή της ξεπεράσει την ανθρώπινη σοφία.

Μεταξύ εκείνων που εκφράζουν τέτοιες ανησυχίες είναι ο Τζέφρι Χίντον, βραβευμένος με Νόμπελ και μία από τις θεμελιώδεις μορφές της σύγχρονης έρευνας για την ΤΝ. Αυτό το εύρος απόψεων δεν αποδεικνύει ότι έρχεται κάποια καταστροφή. Αποκαλύπτει όμως ότι ακόμη και οι άνθρωποι που κατασκευάζουν αυτά τα συστήματα δεν συμφωνούν πλήρως για τις συνέπειες που μπορεί να έχει.

Η τεχνητή νοημοσύνη ενσωματώνεται γρήγορα στα συστήματα που διαμορφώνουν τη σύγχρονη ζωή: την επικοινωνία, το εμπόριο, την εθνική ασφάλεια και τη διακυβέρνηση. Βλέπουμε σημάδια σε όλους αυτούς τους τομείς. Μπορούμε να διαπιστώσουμε καθαρά ότι η ΤΝ διαμορφώνει το μέλλον μας, είτε το θέλουμε είτε όχι.

Το ερώτημα είναι αν θα αναγνωρίσουμε τα σημάδια εγκαίρως ώστε να κατανοήσουμε τι εκτυλίσσεται ή αν θα περιμένουμε, όπως συχνά κάνουν οι κοινωνίες, μέχρι οι συνέπειες να καταστήσουν τα σημάδια αδύνατο να αγνοηθούν.