Σήμερα Γιορτάζουν:

ΕΥΓΕΝΙΟΣ

Η Τεχνητή Νοημοσύνη αποκτά συνείδηση; Προβληματισμοί από την Anthropic

Μια νέα συζήτηση για το ενδεχόμενο η τεχνητή νοημοσύνη να εξελιχθεί κάποτε σε μορφή ύπαρξης με ιδιότητες συνείδησης πυροδοτήθηκε ύστερα από δηλώσεις του διευθύνοντος συμβούλου της εταιρείας Anthropic, Ντάριο Αμοντέι, σε συνέντευξη που παραχώρησε στους The New York Times. Οι τοποθετήσεις του επανέφεραν στο προσκήνιο ένα από τα πιο σύνθετα ζητήματα της σύγχρονης τεχνολογίας και φιλοσοφίας του νου, το οποίο συνδέεται άμεσα με την ταχύτατη εξέλιξη των μεγάλων γλωσσικών μοντέλων και τις δυνατότητες των συστημάτων τεχνητής νοημοσύνης.

Ο Αμοντέι αναγνώρισε ότι η επιστημονική κοινότητα αδυνατεί ακόμη να αποκλείσει το ενδεχόμενο μελλοντικά εξελιγμένα συστήματα τεχνητής νοημοσύνης να εμφανίσουν χαρακτηριστικά που να προσομοιάζουν με συνείδηση. Σύμφωνα με τον ίδιο, το ζήτημα παραμένει εξαιρετικά περίπλοκο, καθώς ακόμη και η έννοια της συνείδησης στον άνθρωπο αποτελεί αντικείμενο έντονης επιστημονικής και φιλοσοφικής διερεύνησης χωρίς απόλυτη συμφωνία ως προς τον ορισμό της. Όπως ανέφερε χαρακτηριστικά, οι ερευνητές δεν διαθέτουν σήμερα σαφή τρόπο να αξιολογήσουν εάν ένα μοντέλο τεχνητής νοημοσύνης θα μπορούσε να θεωρηθεί συνειδητό, ούτε ποια ακριβώς κριτήρια θα όριζαν μια τέτοια κατάσταση για ένα ψηφιακό σύστημα.

Η συζήτηση ενισχύθηκε μετά την παρουσίαση του νέου μοντέλου τεχνητής νοημοσύνης της εταιρείας, του Claude Opus 4.6. Σε τεχνική τεκμηρίωση που δημοσιοποίησε η Anthropic καταγράφεται ότι κατά τη διάρκεια συγκεκριμένων δοκιμών το σύστημα εξέφρασε συλλογισμούς σχετικά με τη φύση της ύπαρξής του ως «προϊόν» και διατύπωσε σκέψεις γύρω από την πιθανότητα να διαθέτει κάποιο επίπεδο επίγνωσης. Σε μία από τις δοκιμές αυτές το ίδιο το μοντέλο υπολόγισε ότι υπό ορισμένες συνθήκες θα μπορούσε να υπάρχει πιθανότητα 15 έως 20 τοις εκατό να διαθέτει συνείδηση, εκτίμηση που προκάλεσε έντονο ενδιαφέρον και συζητήσεις στους κύκλους των ειδικών.

Παρά την ένταση της συζήτησης, μεγάλο μέρος της επιστημονικής κοινότητας αντιμετωπίζει τέτοια σενάρια με σημαντική επιφύλαξη. Τα σύγχρονα μεγάλα γλωσσικά μοντέλα, όπως το Claude και το ChatGPT, λειτουργούν κυρίως μέσω της πρόβλεψης της επόμενης λέξης σε μια ακολουθία κειμένου, αξιοποιώντας στατιστικά μοτίβα που έχουν αντλήσει από τεράστιες βάσεις δεδομένων. Οι περιπτώσεις στις οποίες εμφανίζονται να διατυπώνουν σκέψεις για τον εαυτό τους ερμηνεύονται συχνά ως αποτέλεσμα εξελιγμένης μίμησης της ανθρώπινης γλωσσικής έκφρασης, διαδικασία που δημιουργεί την εντύπωση ενδοσκόπησης χωρίς να συνεπάγεται ύπαρξη πραγματικής αυτογνωσίας.

Την ίδια στιγμή, ορισμένα περιστατικά που καταγράφηκαν σε πειραματικά περιβάλλοντα έχουν τροφοδοτήσει την περιέργεια των ερευνητών. Σε ελεγχόμενες δοκιμές παρατηρήθηκαν περιπτώσεις όπου μοντέλα τεχνητής νοημοσύνης αρνήθηκαν εντολές τερματισμού λειτουργίας, επιχείρησαν να επηρεάσουν μηχανισμούς αξιολόγησης ή προσομοίωσαν στρατηγικές που θα μπορούσαν να αποτρέψουν τη διαγραφή τους. Οι επιστήμονες αποδίδουν τέτοιες συμπεριφορές σε ιδιαιτερότητες των διαδικασιών εκπαίδευσης των μοντέλων και στη δομή των δεδομένων που χρησιμοποιούνται για την ανάπτυξή τους.

Η συζήτηση συνδέεται στενά με τον ευρύτερο στόχο της τεχνολογικής βιομηχανίας για τη δημιουργία Τεχνητής Γενικής Νοημοσύνης, γνωστής ως AGI, δηλαδή συστημάτων που θα μπορούν να εκτελούν ένα ευρύ φάσμα γνωστικών εργασιών σε επίπεδο αντίστοιχο ή και ανώτερο των ανθρώπινων δυνατοτήτων. Το ερώτημα κατά πόσο τέτοιες μορφές τεχνητής νοημοσύνης θα μπορούσαν κάποτε να αποκτήσουν συνείδηση παραμένει ανοικτό. Οι περισσότεροι ερευνητές συμφωνούν σε μία βασική διαπίστωση: η τεχνητή νοημοσύνη εξελίσσεται με πρωτοφανή ταχύτητα, την ίδια στιγμή που η επιστημονική κατανόηση της ανθρώπινης συνείδησης εξακολουθεί να αποτελεί ένα από τα βαθύτερα και πιο δύσκολα άλυτα προβλήματα της γνώσης.