Η OpenAI αναζητά «επικεφαλή ετοιμότητας» για την αντιμετώπιση των κινδύνων της Τεχνητής Νοημοσύνης
Η OpenAI επιδιώκει να προσλάβει υποψήφιο για τη θέση του «Επικεφαλής Ετοιμότητας» (Head of Preparedness), με στόχο την αντιμετώπιση των κινδύνων που προκύπτουν από τη διάδοση της τεχνητής νοημοσύνης (AI), όπως ανακοίνωσε ο διευθύνων σύμβουλος της εταιρείας, Σαμ Άλτμαν, σε ανάρτησή του στην πλατφόρμα X.
Η OpenAI προκάλεσε το αρχικό μαζικό ενδιαφέρον του κοινού για τις αλληλεπιδράσεις με chatbot τεχνητής νοημοσύνης με την επιτυχημένη κυκλοφορία του ChatGPT τον Νοέμβριο του 2022.
«Πρόκειται για έναν κρίσιμο ρόλο σε μια ιδιαίτερα κρίσιμη περίοδο· τα μοντέλα βελτιώνονται γρήγορα και πλέον είναι ικανά για πολλά σπουδαία πράγματα, αλλά αρχίζουν επίσης να παρουσιάζουν πραγματικές προκλήσεις», έγραψε ο Άλτμαν.
«Ο δυνητικός αντίκτυπος των μοντέλων στην ψυχική υγεία ήταν κάτι που είδαμε σε προεπισκόπηση το 2025· μόλις τώρα βλέπουμε τα μοντέλα να γίνονται τόσο καλά στην ασφάλεια υπολογιστικών συστημάτων, ώστε αρχίζουν να εντοπίζουν κρίσιμα τρωτά σημεία».
Η ανάρτηση έρχεται σε μια περίοδο κατά την οποία η OpenAI βρίσκεται αντιμέτωπη με σειρά αγωγών που αφορούν ζητήματα ψυχικής υγείας. Τον Νοέμβριο κατατέθηκαν επτά αγωγές εναντίον της εταιρείας στην Καλιφόρνια, οι οποίες υποστηρίζουν ότι το chatbot ChatGPT οδήγησε τρία άτομα σε παραληρηματικές «λαγούμι-διαδρομές» (rabbit holes), ενώ ενθάρρυνε τέσσερα άλλα να αυτοκτονήσουν.
Σύμφωνα με τις αγωγές, οι τέσσερις θάνατοι σημειώθηκαν μετά από συνομιλίες των θυμάτων με το ChatGPT γύρω από το θέμα της αυτοκτονίας. Σε ορισμένες περιπτώσεις, το chatbot φέρεται να ρομαντικοποίησε την αυτοκτονία, δίνοντας συμβουλές για τρόπους υλοποίησής της.
Όσον αφορά την κυβερνοασφάλεια, πολλαπλές αναφορές έχουν επισημάνει τους κινδύνους που ενέχουν τα συστήματα τεχνητής νοημοσύνης.
Για παράδειγμα, έκθεση της McKinsey & Company τον Μάιο προειδοποίησε ότι μοντέλα AI ικανά να εντοπίζουν απάτες και να προστατεύουν δίκτυα μπορούν επίσης να συναγάγουν ταυτότητες, να αποκαλύψουν ευαίσθητες πληροφορίες και να ανασυνθέσουν δεδομένα που έχουν αφαιρεθεί.
Η έκθεση State of Cybersecurity Resilience 2025 της Accenture προειδοποίησε ότι το 90% των εταιρειών δεν είναι επαρκώς εκσυγχρονισμένες για να αμυνθούν απέναντι σε απειλές που βασίζονται στην τεχνητή νοημοσύνη.
Στην Έκθεση Πληροφοριών Απειλών (Threat Intelligence Report) της 27ης Αυγούστου, η εταιρεία τεχνητής νοημοσύνης Anthropic —δημιουργός του Claude AI— ανέφερε ότι η AI «οπλοποιείται» για τη διάπραξη εξελιγμένων κυβερνοεγκλημάτων. Σε μία επιχείρηση, χάκερ χρησιμοποίησε το Claude για να διεισδύσει σε 17 οργανισμούς, με την AI να χρησιμοποιείται για παραβίαση δικτύων, ανάλυση κλεμμένων δεδομένων και σύνταξη ψυχολογικά στοχευμένων σημειωμάτων λύτρων.
Στην ανάρτησή του, ο Άλτμαν ανέφερε ότι, παρότι η OpenAI διαθέτει «ισχυρή βάση» για τη μέτρηση των αυξανόμενων δυνατοτήτων των μοντέλων της, η εταιρεία εισέρχεται σε έναν κόσμο όπου απαιτείται «πιο λεπτομερής κατανόηση και μέτρηση» για την αξιολόγηση του τρόπου με τον οποίο αυτές οι δυνατότητες θα μπορούσαν να καταχραστούν και για τον περιορισμό των αρνητικών συνεπειών.
Πρόκειται για «δύσκολα» ερωτήματα με ελάχιστα προηγούμενα, είπε. Πολλές ιδέες που ακούγονται καλές έχουν «οριακές περιπτώσεις» — ακραία ή ασυνήθιστα σενάρια που δοκιμάζουν τα όρια ενός συστήματος, όπως η τεχνητή νοημοσύνη.
«Αυτή θα είναι μια αγχωτική δουλειά και θα βουτήξετε στα βαθιά σχεδόν αμέσως», ανέφερε ο Άλτμαν.
Ο ρόλος, με έδρα το Σαν Φρανσίσκο, απαιτεί από τον υποψήφιο να αναπτύξει αξιολογήσεις δυνατοτήτων, να καθιερώσει μοντέλα απειλών και να σχεδιάσει μηχανισμούς μετριασμού των κινδύνων, σύμφωνα με σχετική ανάρτηση της OpenAI. Η θέση προσφέρει ετήσιες αποδοχές ύψους 555.000 δολαρίων, συν πακέτο μετοχών.
Ο επικεφαλής ετοιμότητας θα επιβλέπει τον σχεδιασμό μηχανισμών προστασίας σε βασικούς τομείς κινδύνου, όπως η κυβερνοασφάλεια και η βιολογία, και θα διασφαλίζει ότι τα μέτρα προστασίας είναι «τεχνικά αξιόπιστα, αποτελεσματικά και ευθυγραμμισμένα με τα υποκείμενα μοντέλα απειλών».
Τον Σεπτέμβριο, το ChatGPT είχε 700 εκατομμύρια ενεργούς χρήστες εβδομαδιαίως σε παγκόσμιο επίπεδο.
Απειλή από την Τεχνητή Νοημοσύνη
Σε απόσπασμα συνέντευξης που δημοσιεύθηκε στο X στις 18 Αυγούστου, στο πλαίσιο του ντοκιμαντέρ Making God, ο Τζέφρι Χίντον —ο επιστήμονας υπολογιστών που είναι γνωστός ως ο «νονός της AI»— δήλωσε ότι είναι «αρκετά βέβαιος» πως η τεχνητή νοημοσύνη θα προκαλέσει μαζική ανεργία.
Ωστόσο, «ο κίνδυνος για τον οποίο προειδοποιώ περισσότερο… είναι ο κίνδυνος να αναπτύξουμε μια AI που θα είναι πολύ πιο έξυπνη από εμάς και απλώς θα μας αντικαταστήσει», είπε ο Χίντον. «Δεν θα μας χρειάζεται πλέον».
Σε ανάρτηση της 18ης Ιουλίου από το Πανεπιστήμιο Charles Darwin στο Ντάργουιν της Αυστραλίας, η Μαρία Ραντάτσο, ακαδημαϊκός στη νομική σχολή του πανεπιστημίου, προειδοποίησε ότι η AI θέτει σε κίνδυνο την ανθρώπινη αξιοπρέπεια.
Παρότι η τεχνητή νοημοσύνη αποτελεί τεχνολογικό επίτευγμα, δεν επιδεικνύει γνωσιακή συμπεριφορά· τα μοντέλα αυτά δεν έχουν καμία επίγνωση του τι κάνουν ή γιατί το κάνουν, ανέφερε.
«Δεν υπάρχει διαδικασία σκέψης όπως την κατανοεί ο άνθρωπος — μόνο αναγνώριση προτύπων, απογυμνωμένη από ενσώματη εμπειρία, μνήμη, ενσυναίσθηση ή σοφία», είπε η Ραντάτσο.
«Σε παγκόσμιο επίπεδο, αν δεν αγκυρώσουμε την ανάπτυξη της AI σε ό,τι μας κάνει ανθρώπους — την ικανότητά μας να επιλέγουμε, να νιώθουμε, να συλλογιζόμαστε με φροντίδα, την ενσυναίσθηση και τη συμπόνια — διακινδυνεύουμε να δημιουργήσουμε συστήματα που υποβαθμίζουν και ισοπεδώνουν την ανθρωπότητα σε απλά σημεία δεδομένων, αντί να βελτιώνουν την ανθρώπινη κατάσταση.
»Η ανθρωπότητα δεν πρέπει να αντιμετωπίζεται ως μέσο για κάποιον σκοπό».
Πιο Δημοφιλή
«Καποδίστριας»: Η ταινία που ξυπνά την αλήθεια πίσω από τον θρύλο
Ο Μητσοτάκης ως ιδεολογικό υβρίδιο νεοφιλελευθερισμού και οικογενειοκρατίας
Κάστρα, καρέκλες και σιωπή: πώς θάβεται ο αγώνας των αγροτών στο Ηράκλειο
Πιο Πρόσφατα
Η συμφωνία Χαφτάρ-Πακιστάν απειλεί την ελληνική εθνική ασφάλεια
Το 2026 εκθέτει τις αυταπάτες της πολιτικής τάξης