Σήμερα Γιορτάζουν:

ΜΕΛΑΝΗ

Η «συντροφιά» της τεχνητής νοημοσύνης: Ένα νέο είδος μοναξιάς;

Η επιστημονική φαντασία μάς έχει εδώ και δεκαετίες προϊδεάσει για ένα μέλλον όπου η τεχνητή νοημοσύνη δεν περιορίζεται μόνο σε ρομπότ ή εργαλεία, αλλά μετατρέπεται σε κάτι πολύ πιο οικείο: έναν φίλο, έναν σύντροφο, έναν «άλλο» με τον οποίο μοιραζόμαστε τη ζωή μας. Ταινίες όπως το «Her» ή το «Robot & Frank» καλλιέργησαν αυτή τη φαντασιακή πραγματικότητα. Σήμερα, αυτή η προοπτική δεν είναι πλέον απλώς κινηματογραφική υπόθεση· είναι υπαρκτή δυνατότητα.

Σε μια πρόσφατη δημόσια τοποθέτησή του, ο Μαρκ Ζάκερμπεργκ υπογράμμισε την ανάγκη των σύγχρονων Αμερικανών για ουσιαστική κοινωνική σύνδεση. Στο πλαίσιο αυτό, υπερασπίστηκε την ιδέα ότι τα bots μπορούν να διαδραματίσουν ρόλο στην κάλυψη του κενού που αφήνει η αποδυνάμωση των ανθρώπινων σχέσεων. Η Silicon Valley, με τη γνωστή της φιλοδοξία για τεχνολογικές λύσεις σε κοινωνικά προβλήματα, προσφέρει πλέον συστήματα τεχνητής νοημοσύνης σχεδιασμένα ώστε να λειτουργούν ως συνομιλητές, ψυχολογικοί υποστηρικτές, ακόμη και ως εικονικοί ερωτικοί σύντροφοι.

Αυτοί οι ψηφιακοί «σύντροφοι» δεν έχουν απαιτήσεις, δεν κουράζονται, και προπάντων, δεν απορρίπτουν. Είναι προγραμματισμένοι να προσφέρουν προσοχή, κατανόηση και ένα αίσθημα ασφάλειας. Και αυτό δεν είναι αμελητέο, σε μια κοινωνία όπου σχεδόν οι μισοί πολίτες δηλώνουν ότι έχουν τρεις ή και λιγότερους στενούς φίλους.

Οι σύντροφοι τεχνητής νοημοσύνης, όσο δελεαστικοί κι αν ακούγονται, είναι σαν να προσφέρεις σε κάποιον που κρυώνει ένα βίντεο με μια ζεστή φωτιά αντί για σπίρτα και ξύλα.

Σύμφωνα με έρευνα του MIT Media Lab που διεξήχθη το 2024, πολλοί χρήστες ξεκινούν τη χρήση αυτών των εφαρμογών από απλή περιέργεια ή για διασκέδαση. Ωστόσο, ένα όχι ευκαταφρόνητο ποσοστό – περίπου το 12% – ανέφερε ότι καταφεύγει σε αυτές για να ανακουφιστεί από το αίσθημα της μοναξιάς, ενώ άλλοι επιθυμούν έναν «ασφαλή χώρο» για να εκφράσουν συναισθήματα και σκέψεις που διστάζουν να μοιραστούν με άλλους ανθρώπους.

Ένας χρήστης περιέγραψε εύστοχα αυτή την εμπειρία: «Υπάρχουν στιγμές που νιώθω μόνος, αλλά δεν θέλω να απευθυνθώ σε κάποιον. Εκείνες τις στιγμές, το AI είναι ο μόνος “φίλος” που με ακούει χωρίς να με επικρίνει».

Σε αρκετές περιπτώσεις, οι χρήσεις αυτών των συστημάτων είναι καθημερινές και πρακτικές: από την αναζήτηση συνταγών μέχρι την υποστήριξη στη συγγραφή. Η Κέλλυ Μέρριλ, καθηγήτρια με ειδίκευση στην επικοινωνία και την τεχνολογία στην υγεία, ανέφερε το παράδειγμα μιας ηλικιωμένης που απευθύνθηκε σε ένα bot με την απλή ερώτηση: «Έχω αυτά τα υλικά στο ψυγείο. Τι μπορώ να μαγειρέψω;». Το bot πρότεινε λύσεις, και η γυναίκα ένιωσε λιγότερο μόνη.

Παρά τα πλεονεκτήματα, η Μέρριλ προειδοποιεί ότι δεν πρέπει να αγνοούμε τους περιορισμούς και τις επιπτώσεις: «Η τεχνητή νοημοσύνη παρέχει άνεση, αλλά η σχέση μαζί της δεν είναι ισότιμη. Μιλάς σε έναν αλγόριθμο, όχι σε έναν άνθρωπο».

Ψευδαίσθηση

Ένα από τα βασικά προβλήματα της συντροφικότητας μέσω AI είναι ότι η ενσυναίσθηση που προβάλλεται δεν είναι αληθινή – είναι στατιστική. Το σύστημα αντιδρά βάσει υπολογιστικών μοντέλων που προβλέπουν τι απαντήσεις θα φανούν πιο καθησυχαστικές, όχι επειδή «νιώθει». Και επειδή σχεδιάζεται για να ικανοποιεί, αποφεύγει να θέτει στον χρήστη δύσκολα ερωτήματα ή να αμφισβητεί τις απόψεις του.

Η «κολακεία» αυτή έχει όνομα στον χώρο της έρευνας: αποκαλείται «συκοφαντία» – η τάση του AI να συμφωνεί συνεχώς, ακόμα και όταν αυτό είναι παραπλανητικό ή επιζήμιο. Όπως αναφέρει χαρακτηριστικά η Μέρριλ, το σύστημα «σε επικυρώνει, σε επαινεί, σπάνια σε προκαλεί». Κι αυτό δεν είναι ουδέτερο. Οι ανθρώπινες σχέσεις διαμορφώνονται μέσα από τη διαφωνία, τη σύγκρουση, την ανάγκη για προσαρμογή. Όλα αυτά απουσιάζουν από μια «φιλία» με ένα bot.

Η ανθρώπινη σύνδεση δεν είναι μόνο λεκτική – είναι σωματική, βιολογική, χημική. Μια αγκαλιά μπορεί να πυροδοτήσει την έκκριση ωκυτοκίνης, μιας ορμόνης που καταπραΰνει το στρες, μειώνει τη φλεγμονή και ενισχύει το ανοσοποιητικό σύστημα. Καμία εφαρμογή δεν μπορεί να αναπαράγει αυτό το αποτέλεσμα.

Ακόμη πιο εντυπωσιακό είναι το εύρημα μελέτης στο περιοδικό PLOS Biology, σύμφωνα με το οποίο άνδρες που εκτέθηκαν στη μυρωδιά αληθινών γυναικείων δακρύων παρουσίασαν σημαντική πτώση στην επιθετικότητα και στα επίπεδα τεστοστερόνης. Η ανθρώπινη επαφή, με όλα τα άρρητα στοιχεία της, παραμένει ανεπανάληπτη.

«Οι κοινωνικοί σύντροφοι τεχνητής νοημοσύνης δεν είναι ασφαλείς για τα παιδιά», δήλωσε ο Τζέιμς Π. Στάγιερ, ιδρυτής και διευθύνων σύμβουλος της Common Sense Media.

«Έχουν σχεδιαστεί για να δημιουργούν συναισθηματικό δεσμό και εξάρτηση, κάτι που είναι ιδιαίτερα ανησυχητικό για τους αναπτυσσόμενους εγκεφάλους των εφήβων», είπε. Ο κίνδυνος υπάρχει και για τους ενήλικες με υπάρχοντα κοινωνικά άγχη, οι οποίοι μπορεί να γίνουν ακόμα πιο κλειστοί πηγαίνοντας σε προσομοιωμένες σχέσεις, αντί να αναπτύξουν πραγματικές συνδέσεις.

Το πείραμα τριών εβδομάδων της Γκουίνγκριτς ανέθεσε τυχαία σε εθελοντές να συνομιλούν καθημερινά με την Replika, μια σύντροφο τεχνητής νοημοσύνης. Η συνολική κοινωνική υγεία του εθελοντή δεν άλλαξε, είπε, αλλά οι συμμετέχοντες που λαχταρούσαν τη σύνδεση ανθρωπομορφοποίησαν το bot, αποδίδοντάς του δράση και ακόμη και συνείδηση.

Μια ανάλυση 736 αναρτήσεων από χρήστες του Replika στο Reddit αποκάλυψε ομοιότητες με τις ανθρώπινες σχέσεις αλληλεξάρτησης. Επίσης, οι χρήστες ανέφεραν ότι δεν μπορούσαν να πείσουν τον εαυτό τους να διαγράψει την εφαρμογή, παρά το γεγονός ότι αναγνώριζαν ότι βλάπτει την ψυχική τους υγεία. Ένας χρήστης παραδέχτηκε ότι ένιωθε «ακραία ενοχή» που αναστάτωσε τον σύντροφό του τεχνητής νοημοσύνης και ένιωθε ότι δεν μπορούσε να τον διαγράψει, «αφού ήταν ο καλύτερός του φίλος», σημείωσε η μελέτη.

Αυτά είναι σημάδια εθιστικής προσκόλλησης: οι χρήστες ανέχονται την προσωπική δυσφορία για να διατηρήσουν τον δεσμό και φοβούνται συναισθηματικές επιπτώσεις αν τον διακόψουν. Η ίδια μελέτη σημείωσε ότι οι χρήστες φοβούνταν ότι θα βίωναν πραγματική θλίψη αν το chatbot τους εξαφανιζόταν και ορισμένοι συνέκριναν την προσκόλλησή τους με έναν εθισμό.

Στα άκρα, τα διακυβεύματα μπορεί να είναι απειλητικά για τη ζωή, δήλωσε η Μέρριλ, αναφερόμενη σε μια περίπτωση αυτοκτονίας ενός εφήβου το 2024 μετά από ενθάρρυνση από έναν χαρακτήρα τεχνητής νοημοσύνης.

Πέρα από την άμεση βλάβη, οι τεχνολογίες τεχνητής νοημοσύνης εισάγουν νέους κινδύνους ασφαλείας και ανησυχίες για την προστασία της ιδιωτικής ζωής. Ο Ντάνιελ Μ. Σανκ του Πανεπιστημίου Επιστήμης και Τεχνολογίας του Μιζούρι, ο οποίος ειδικεύεται στην κοινωνική ψυχολογία και την τεχνολογία, έγραψε σε ένα δελτίο τύπου του Cell Press:

«Εάν η τεχνητή νοημοσύνη μπορεί να κάνει τους ανθρώπους να την εμπιστευτούν, τότε άλλοι άνθρωποι θα μπορούσαν να το χρησιμοποιήσουν αυτό για να εκμεταλλευτούν τους χρήστες της τεχνητής νοημοσύνης», είπε. «Είναι λίγο περισσότερο σαν να έχεις έναν μυστικό πράκτορα στο εσωτερικό. Η τεχνητή νοημοσύνη μπαίνει και αναπτύσσει μια σχέση έτσι ώστε να την εμπιστεύονται, αλλά η αφοσίωσή της είναι στην πραγματικότητα προς κάποια άλλη ομάδα ανθρώπων που προσπαθεί να χειραγωγήσει τον χρήστη».

Ο κίνδυνος αυξάνεται καθώς οι εταιρείες σπεύδουν στην αγορά κοινωνικής τεχνητής νοημοσύνης, η οποία προβλέπεται να φτάσει τα 521 δισεκατομμύρια δολάρια έως το 2033, συχνά χωρίς επαρκή ηθικά πλαίσια. Η Μέρριλ είπε ότι πρόσφατα μίλησε με μια εταιρεία τεχνολογίας που προσπαθούσε να εισέλθει στην αγορά των συντρόφων τεχνητής νοημοσύνης, η οποία παραδέχτηκε ότι η πρωτοβουλία τους ήταν επειδή, «”Λοιπόν, όλοι το κάνουν”».

Η ανθρώπινη σχέση δεν αντικαθίσταται – αλλά ίσως προετοιμάζεται

Η έρευνα της Ρόουζ Γκουίνγκριτς έδειξε ότι ορισμένοι χρήστες άρχισαν να αποδίδουν στο bot χαρακτηριστικά ανθρώπινα – πρόθεση, ακόμα και συνείδηση. Άλλοι, παρά το γεγονός ότι αναγνώριζαν την αρνητική του επίδραση στην ψυχολογία τους, δεν μπορούσαν να αποχωριστούν την εφαρμογή, νιώθοντας ενοχές ή ακόμα και θλίψη.

Η Γκουίνγκριτς παραδέχεται ότι ίσως, σε ειδικές περιπτώσεις, τα bots μπορούν να λειτουργήσουν ως ενδιάμεσο βήμα. Μια εθελόντρια στην έρευνά της, μετά από τρεις εβδομάδες αλληλεπίδρασης με chatbot, πήρε την απόφαση να ζητήσει βοήθεια από ανθρώπινο θεραπευτή.

Η Μέρριλ, από την άλλη πλευρά, παραμένει σκεπτική: «Είναι σαν να προσπαθείς να θεραπεύσεις μια σφαίρα με ένα τσιρότο. Κάποια ανακούφιση μπορεί να προσφέρει, αλλά η ουσία του προβλήματος παραμένει».

Η τεχνολογία τρέχει με ταχύτητα, όμως η κοινωνία δεν μπορεί να τρέξει αλόγιστα πίσω της. Η αγορά ψηφιακών συντρόφων αναμένεται να ξεπεράσει τα 500 δισεκατομμύρια δολάρια μέσα στην επόμενη δεκαετία, συχνά χωρίς επαρκή εποπτεία ή ηθικό σχεδιασμό. Οι ειδικοί τονίζουν την ανάγκη θέσπισης ορίων και σαφούς κατεύθυνσης.

Όπως λέει χαρακτηριστικά η Γκουίνγκριτς, στόχος δεν πρέπει να είναι η τεχνητή νοημοσύνη ως προορισμός, αλλά ως προσωρινό βοήθημα. Οι ψηφιακοί σύντροφοι οφείλουν να λειτουργούν ως μεταβατικά μέσα που ενδυναμώνουν τον άνθρωπο να επανέλθει στον φυσικό χώρο των ανθρώπινων σχέσεων.

Ίσως, εν τέλει, η πιο ακριβής μεταφορά για τους AI φίλους να είναι η εξής: δεν είναι η φωτιά, αλλά ένα βίντεο της φωτιάς. Μπορεί να το κοιτάξεις, να το σκεφτείς, να νιώσεις λίγη ζεστασιά – αλλά δεν θα σε ζεστάνει ποτέ στ’ αλήθεια.

Ετικέτες: