Σύγκρουση Anthropic–Πενταγώνου για επιτήρηση πολιτών και αυτόνομα φονικά συστήματα
Στις 7 Μαρτίου, η Κέιτλιν Καλινόφσκι, επικεφαλής ρομποτικής και υλικού της OpenAI, υπέβαλε την παραίτησή της εξαιτίας της συμφωνίας της εταιρείας με το Πεντάγωνο, δηλώνοντας ότι η επιτήρηση πολιτών των ΗΠΑ χωρίς δικαστικό έλεγχο και η ανάπτυξη αυτόνομων θανατηφόρων συστημάτων χωρίς ανθρώπινη έγκριση αποτελούν ζητήματα που «άξιζαν πολύ μεγαλύτερη συζήτηση». Η αποχώρησή της ακολούθησε τις ξεχωριστές νομικές διευκρινίσεις που εξέδωσαν η Microsoft, η Google και η Amazon Web Services – οι πλατφόρμες μέσω των οποίων επιχειρήσεις και ιδιώτες έχουν πρόσβαση στο Claude – ενημερώνοντας τους χρήστες ότι ο χαρακτηρισμός της Anthropic ως κινδύνου για την εφοδιαστική αλυσίδα από το Πεντάγωνο αφορά αποκλειστικά ομοσπονδιακά συμβόλαια και δεν επηρεάζει τη χρήση του μοντέλου μέσω των υπηρεσιών τους για μη στρατιωτικές δραστηριότητες.
Ο χαρακτηρισμός αυτός – το ίδιο εργαλείο που έχει χρησιμοποιηθεί στο παρελθόν εναντίον της Huawei και κινεζικών στρατιωτικών αναδόχων – εφαρμόστηκε για πρώτη φορά σε αμερικανική εταιρεία. Οι συνέπειες ξεπέρασαν τα ομοσπονδιακά συμβόλαια της Anthropic και άγγιξαν σχέσεις με αναδόχους, υπεργολάβους και μεγάλους επιχειρηματικούς πελάτες σε ολόκληρη την οικονομία. Η περίοδος έξι μηνών για την ολοκλήρωση της διαδικασίας θα απαιτούσε από κάθε ανάδοχο του Πενταγώνου να πιστοποιήσει ότι δεν χρησιμοποιεί το Claude σε καμία επιχειρησιακή διαδικασία.
Η αφορμή ήταν η άρνηση της Anthropic να ξεπεράσει τα ίδια δύο όρια που ανέφερε και η Καλινόφσκι στην παραίτησή της. Η απάντηση της κυβέρνησης ήταν η ενεργοποίηση του ισχυρότερου ρυθμιστικού εργαλείου που διαθέτει. Λίγες ημέρες αργότερα, ο αμερικανικός στρατός χρησιμοποίησε το Claude κατά τη διάρκεια ενεργών επιχειρήσεων στο Ιράν για αξιολογήσεις πληροφοριών και προσομοιώσεις μάχης.
Στις 9 Μαρτίου η Anthropic κατέθεσε δύο αγωγές σε ομοσπονδιακά δικαστήρια, μία στη Βόρεια Περιφέρεια της Καλιφόρνιας και μία στο Εφετείο της Περιφέρειας της Ουάσιγκτον, αμφισβητώντας τον χαρακτηρισμό σε συνταγματική και νομοθετική βάση.
Η υπόθεση παραμένει ανοιχτή, όπως επιβεβαιώνουν τόσο η πρόσφατη παραίτηση όσο και οι δημόσιες τοποθετήσεις των μεγάλων πλατφορμών.
Η αντιπαράθεση μεταξύ της Anthropic και του Πενταγώνου φέρνει στο προσκήνιο ένα ευρύτερο ερώτημα: αν η εταιρική συνείδηση αποτελεί εμπόδιο ή αναγκαίο μηχανισμό προστασίας σε μια υγιή κοινωνία.
Η διαφωνία δεν αφορούσε το αν οι απαιτήσεις της κυβέρνησης ήταν νόμιμες. Κανένας νόμος δεν παραβιαζόταν. Τα δύο όρια που έθεσε η Anthropic δεν ήταν νομικά συμπεράσματα, αλλά ηθικές επιλογές.
Το πρώτο σχετιζόταν με την εγχώρια επιτήρηση. Ιστορικό τοποθεσίας, αγοραστικές συνήθειες, διαδικτυακές δραστηριότητες και κοινωνικές επαφές μπορούν να αγοραστούν νόμιμα από εμπορικούς μεσίτες δεδομένων. Η τεχνητή νοημοσύνη καταργεί το βασικό πρακτικό εμπόδιο που υπήρχε μέχρι σήμερα: τον χρόνο, το κόστος και το ανθρώπινο δυναμικό που απαιτούνταν για τη μαζική παρακολούθηση ενός πληθυσμού. Αυτό που κάποτε απαιτούσε ένα ολοκληρωτικό κρατικό μηχανισμό μπορεί πλέον να πραγματοποιηθεί με μια σύμβαση και ένα ισχυρό μοντέλο τεχνητής νοημοσύνης. Η άρνηση της Anthropic βασίστηκε στην εκτίμηση ότι η ελευθερία εξαρτάται από το τι μπορεί να κάνει το κράτος, πέρα από το τι επιτρέπει ο νόμος. Όταν οι τεχνολογικές δυνατότητες αυξάνονται απότομα, τα νομικά πλαίσια προηγούμενων δεκαετιών παύουν να λειτουργούν ως επαρκείς εγγυήσεις.
Το δεύτερο όριο αφορούσε τα αυτόνομα οπλικά συστήματα, μηχανές που μπορούν να εντοπίζουν και να εξουδετερώνουν ανθρώπινους στόχους χωρίς ανθρώπινη απόφαση στην αλυσίδα. Η ανάθεση της απόφασης για αφαίρεση ανθρώπινης ζωής σε έναν αλγόριθμο αφαιρεί τον ιστορικό περιορισμό που συνοδεύει τη χρήση θανατηφόρας βίας: την ανθρώπινη κρίση και την προσωπική ευθύνη. Ένας στρατιώτης που πυροβολεί υπάγεται σε διοικητική ιεραρχία και νομικό πλαίσιο. Ένα αυτόνομο σύστημα υπακούει μόνο στα δεδομένα εκπαίδευσης και στον προγραμματισμένο στόχο του. Σε μεγάλη κλίμακα τέτοια συστήματα μεταβάλλουν όχι μόνο τον τρόπο διεξαγωγής των πολέμων, αλλά και το όριο έναρξής τους. Η θέση της Anthropic ήταν ότι η ανάπτυξη τέτοιας δυνατότητας αποτελεί όριο που δεν μπορεί να δικαιολογηθεί από εμπορικούς υπολογισμούς.
Η θέση του Πενταγώνου ήταν ότι η νομιμότητα επαρκεί ως απάντηση. Η απόσταση ανάμεσα στο τι επιτρέπει ο νόμος και στο τι συνεπάγεται αυτή η άδεια αποτέλεσε το κεντρικό σημείο της σύγκρουσης.
Η αντιπαράθεση είχε ξεκινήσει νωρίτερα. Στις 3 Ιανουαρίου ο αμερικανικός στρατός χρησιμοποίησε το Claude στην επιχείρηση σύλληψης του Νικολάς Μαδούρο στη Βενεζουέλα, μέσω της συνεργασίας της Anthropic με την Palantir στα διαβαθμισμένα δίκτυα του Πενταγώνου. Όταν έγιναν γνωστές οι πληροφορίες για τη χρήση του μοντέλου στην επιχείρηση, εσωτερική διερεύνηση προκάλεσε ένταση στις σχέσεις των δύο πλευρών. Ανώτερο στέλεχος της αμερικανικής διοίκησης δήλωσε τότε ότι η συνεργασία θα επανεξεταστεί.
Η Anthropic ανακοίνωσε ότι δεν εντοπίστηκαν παραβιάσεις πολιτικής στη χρήση του συστήματος. Η ίδια η διερεύνηση αποτέλεσε σημείο τριβής.
Λίγες εβδομάδες αργότερα, κατά τη διάρκεια των επιθέσεων στο Ιράν, ο αμερικανικός στρατός χρησιμοποίησε ξανά το Claude. Το εργαλείο με το οποίο η κυβέρνηση δεν μπορούσε να συνάψει σύμβαση παρέμεινε εργαλείο που δεν μπορούσε να αντικαταστήσει.
Η στάση της OpenAI προσφέρει ένα διαφορετικό παράδειγμα για το πώς πολλές εταιρείες αντιμετωπίζουν παρόμοιες πιέσεις. Λίγες ώρες μετά τον χαρακτηρισμό της Anthropic, η εταιρεία ανακοίνωσε συμφωνία με το Πεντάγωνο. Ο Σαμ Άλτμαν δήλωσε αρχικά ότι η εταιρεία διατηρεί τα ίδια όρια. Στη συνέχεια παραδέχθηκε ότι η συμφωνία είχε επιτευχθεί βιαστικά και επαναδιαπραγματεύτηκε όρους που απαγορεύουν τη χρήση για εγχώρια επιτήρηση.
Σε συνέδριο της Morgan Stanley ο Άλτμαν υποστήριξε ότι είναι επιζήμιο για την κοινωνία όταν οι εταιρείες απομακρύνονται από τη δημοκρατική διαδικασία και τόνισε ότι η κυβέρνηση πρέπει να είναι ισχυρότερη από τις ιδιωτικές επιχειρήσεις.
Η θέση αυτή βασίζεται στην αρχή ότι οι δημοκρατικές κυβερνήσεις αντλούν τη νομιμοποίησή τους από τους πολίτες. Η αρχή αυτή αφήνει ανοικτό το ερώτημα για το τι συμβαίνει όταν οι κυβερνήσεις λαμβάνουν αποφάσεις που υπερβαίνουν τις αρχικές προθέσεις των πολιτών.
Η συμμόρφωση μπορεί να παρουσιαστεί ως δημόσια αρετή και ταυτόχρονα να λειτουργεί ως επιχειρηματική στρατηγική.
Η Google είχε κάποτε ενσωματώσει στο εταιρικό της πρότυπο τη φράση «don’t be evil». Η φράση αφαιρέθηκε αργότερα από τον κώδικα δεοντολογίας χωρίς δημόσια ανακοίνωση.
Η ευκολότερη επιλογή για μεγάλους οργανισμούς είναι η ανάθεση της ευθύνης στο κράτος και η επικέντρωση στη συμμόρφωση. Η ιστορία δείχνει ότι η διεύρυνση της κρατικής ισχύος συχνά πραγματοποιείται μέσα από τις αποφάσεις των οργανισμών που συνεργάζονται μαζί του.
Η συνείδηση έχει λειτουργήσει συχνά ως αρχικός μηχανισμός προστασίας όταν η νομοθεσία δεν έχει προσαρμοστεί ακόμη στις δυνατότητες της τεχνολογίας.
Η αντίδραση της αγοράς έδειξε ότι η στάση αυτή δεν συνεπάγεται πάντα οικονομικό κόστος. Το Claude έφτασε στην πρώτη θέση του Apple App Store στις 28 Φεβρουαρίου και στην πρώτη θέση του Google Play στις 3 Μαρτίου. Οι δωρεάν χρήστες αυξήθηκαν περισσότερο από 60% από τον Ιανουάριο και οι καθημερινές εγγραφές τριπλασιάστηκαν από τον Νοέμβριο. Οι απεγκαταστάσεις του ChatGPT αυξήθηκαν σημαντικά το Σάββατο μετά τον χαρακτηρισμό της Anthropic και οι διακομιστές του Claude κατέγραψαν υπερφόρτωση λόγω ζήτησης.
Οι τρεις μεγαλύτερες πλατφόρμες υπολογιστικού νέφους εξέτασαν ανεξάρτητα τον χαρακτηρισμό και κατέληξαν στο ίδιο νομικό συμπέρασμα: ο χαρακτηρισμός κινδύνου για την εφοδιαστική αλυσίδα δεν επεκτείνεται στους εταιρικούς πελάτες τους.
Η αμερικανική συνταγματική παράδοση διαθέτει μηχανισμούς προστασίας που διαφοροποιούν την κατάσταση από άλλες χώρες. Το 2020 ο ιδρυτής της Alibaba Τζακ Μα επέκρινε δημόσια τις κινεζικές χρηματοπιστωτικές ρυθμιστικές αρχές. Λίγες ημέρες αργότερα οι κινεζικές αρχές ακύρωσαν την εισαγωγή της Ant Group στο χρηματιστήριο, η οποία επρόκειτο να αποτελέσει τη μεγαλύτερη δημόσια εγγραφή στην ιστορία. Στη συνέχεια επιβλήθηκε στην Alibaba πρόστιμο δισεκατομμυρίων δολαρίων και η αξία της εταιρείας μειώθηκε σημαντικά τα επόμενα χρόνια.
Σε αντίθεση με το κινεζικό σύστημα, το αμερικανικό θεσμικό πλαίσιο επιτρέπει τη δικαστική αμφισβήτηση, τη δημόσια συζήτηση και την ανεξάρτητη στάση των ιδιωτικών οργανισμών.
Ο ιστορικός Λόρδος Άκτον είχε γράψει το 1887 ότι «η εξουσία τείνει να διαφθείρει και η απόλυτη εξουσία διαφθείρει απόλυτα». Η παρατήρηση αυτή υπογραμμίζει ότι οι θεσμοί λειτουργούν όταν η εξουσία υπόκειται στα ίδια ηθικά όρια που ισχύουν για όλους.
Η πρακτική συνέπεια δεν είναι ότι οι κυβερνήσεις ενεργούν κακόβουλα, αλλά ότι δεν πρέπει να θεωρείται δεδομένη η καλή τους πρόθεση. Η αμερικανική συνταγματική τάξη ενσωματώνει αυτή την επιφύλαξη μέσα από τον διαχωρισμό των εξουσιών, τη Διακήρυξη Δικαιωμάτων και την ανεξαρτησία της δικαιοσύνης.
Μια κοινωνία όπου καμία ιδιωτική οντότητα δεν διατηρεί τη δυνατότητα να αρνηθεί μια απαίτηση εξουσίας καθίσταται περισσότερο ευάλωτη.
Η επισήμανση ότι οι κυβερνήσεις είναι ισχυρότερες από τις επιχειρήσεις δεν απαντά στο ερώτημα αν πρέπει να αποτελούν και τον μοναδικό φορέα ηθικής ευθύνης.
Η στάση της Anthropic συνίσταται στη διατήρηση μιας θέσης που ωφελεί το κοινό σε μια στιγμή όπου το κοινό δεν είχε άμεση δυνατότητα παρέμβασης. Με αυτή την επιλογή δημιουργήθηκε ένα προηγούμενο για άλλους οργανισμούς, επιχειρήσεις και πολίτες που ενδέχεται να αντιμετωπίσουν αντίστοιχα αιτήματα στο μέλλον.
Η αρχιτεκτονική επιτήρησης που επιδιώχθηκε δεν θα εξαφανιστεί εξαιτίας μιας άρνησης. Η απόφαση της εταιρείας κατέγραψε δημόσια μια στάση, μια αιτιολόγηση και το κόστος που τη συνόδευσε.
Και υπενθύμισε ότι μια υγιής κοινωνία βασίζεται σε πρόσωπα, οργανισμούς και θεσμούς που διατηρούν τα όριά τους όταν το απαιτεί η συνείδηση.
Πιο Δημοφιλή
Πιο Πρόσφατα
Σημάδια τοξικής ηγεσίας και η ευθύνη των πραγματικών ηγετών