Σήμερα Γιορτάζουν:

ΜΕΛΑΝΗ

7 Αυγούστου 2023

Τεχνητή νοημοσύνη: Ευχή ή κατάρα; Το κρισιμότερο σταυροδρόμι για την ανθρωπότητα

Αν η μεσαιωνική πρόοδος στο άροτρο δεν έβγαλε τους αγρότες της Ευρώπης από τη φτώχεια, αυτό οφειλόταν κυρίως στο γεγονός ότι οι ηγεμόνες τους πήραν τον πλούτο που προέκυψε από τα νέα κέρδη στην παραγωγή και τον χρησιμοποίησαν για να χτίσουν καθεδρικούς ναούς.

Οι οικονομολόγοι λένε ότι κάτι παρόμοιο θα μπορούσε να συμβεί με την τεχνητή νοημοσύνη AI), αν εισέλθει στη ζωή μας με τέτοιο τρόπο ώστε τα διαφημιζόμενα οφέλη να τα απολαμβάνουν λίγοι και όχι πολλοί, σημειώνει σε ανάλυσή του το Reuters.

“Η τεχνητή νοημοσύνη έχει πολλές δυνατότητες – αλλά δυνατότητες να πάει προς τα εκεί ή προς τα εκεί”, υποστηρίζει ο Simon Johnson, καθηγητής παγκόσμιας οικονομίας και διοίκησης στο MIT Sloan School of Management.

Κρίσιμο σταυροδρόμι

Οι υποστηρικτές της τεχνητής νοημοσύνης προβλέπουν ένα άλμα παραγωγικότητας που θα δημιουργήσει πλούτο και θα βελτιώσει το βιοτικό επίπεδο.

Η εταιρεία συμβούλων McKinsey εκτίμησε τον Ιούνιο ότι θα μπορούσε να προσθέσει μεταξύ 14 και 22 τρισεκατομμυρίων δολαρίων αξίας ετησίως – το ανώτερο αυτό ποσό αντιστοιχεί περίπου στο σημερινό μέγεθος της αμερικανικής οικονομίας.

Ορισμένοι τεχνο-αισιόδοξοι προχωρούν ακόμη περισσότερο, υποστηρίζοντας ότι, μαζί με τα ρομπότ, η τεχνητή νοημοσύνη είναι η τεχνολογία που θα απελευθερώσει τελικά την ανθρωπότητα από τα βαρετά καθήκοντα και θα μας οδηγήσει σε μια ζωή με περισσότερη δημιουργικότητα και ελεύθερο χρόνο.

Οι ανησυχίες

Ωστόσο, υπάρχουν πολλές ανησυχίες σχετικά με τις επιπτώσεις της στα μέσα διαβίωσης, συμπεριλαμβανομένων των δυνατοτήτων της να καταστρέψει θέσεις εργασίας σε όλους τους τομείς – δείτε την απεργία του Ιουλίου από ηθοποιούς του Χόλιγουντ που φοβούνται ότι θα απολυθούν από τους τεχνητά δημιουργημένους σωσίες τους.

Οι ανησυχίες αυτές δεν είναι αβάσιμες. Η ιστορία δείχνει ότι ο οικονομικός αντίκτυπος των τεχνολογικών εξελίξεων είναι γενικά αβέβαιος, άνισος και μερικές φορές εντελώς κακόβουλος.

Ένα βιβλίο που δημοσιεύθηκε φέτος από τον Johnson και τον συνάδελφό του οικονομολόγο του ΜΙΤ Daron Acemoglu εξέτασε χίλια χρόνια τεχνολογίας – από το άροτρο μέχρι τα αυτοματοποιημένα ταμεία – από την άποψη της επιτυχίας τους στη δημιουργία θέσεων εργασίας και τη διάδοση του πλούτου.

Ενώ τα κλωστήρια ήταν το κλειδί για την αυτοματοποίηση της κλωστοϋφαντουργίας του 18ου αιώνα, διαπίστωσαν ότι οδήγησαν σε περισσότερες ώρες εργασίας σε σκληρότερες συνθήκες.

Τα μηχανικά εκκοκκιστήρια βαμβακιού διευκόλυναν τον 19ο αιώνα την επέκταση της δουλείας στον αμερικανικό Νότο.

Το ιστορικό του Διαδικτύου είναι πολύπλοκο: δημιούργησε πολλούς νέους εργασιακούς ρόλους, ενώ μεγάλο μέρος του παραγόμενου πλούτου πήγε σε μια χούφτα δισεκατομμυριούχων.

Η αύξηση της παραγωγικότητας για την οποία κάποτε επαινέθηκε έχει επιβραδυνθεί σε πολλές οικονομίες.

Ένα ερευνητικό σημείωμα της γαλλικής τράπεζας Natixis τον Ιούνιο υποδεικνύει ότι αυτό οφείλεται στο γεγονός ότι ακόμη και μια τεχνολογία τόσο διαδεδομένη όσο το Διαδίκτυο άφησε ανέγγιχτους πολλούς τομείς, ενώ πολλές από τις θέσεις εργασίας που δημιούργησε ήταν χαμηλής ειδίκευσης – σκεφτείτε την αλυσίδα παράδοσης για τις ηλεκτρονικές αγορές.

“Συμπέρασμα: Θα πρέπει να είμαστε προσεκτικοί όταν εκτιμούμε τις επιπτώσεις της τεχνητής νοημοσύνης στην παραγωγικότητα της εργασίας”, προειδοποίησε η Natixis.

Το Ισραήλ ενσωματώνει αθόρυβα συστήματα τεχνητής νοημοσύνης σε θανατηφόρες στρατιωτικές επιχειρήσεις

Οι Ισραηλινές Αμυντικές Δυνάμεις έχουν αρχίσει να χρησιμοποιούν τεχνητή νοημοσύνη για να επιλέγουν στόχους για αεροπορικές επιδρομές και να οργανώνουν υλικοτεχνική υποστήριξη εν καιρώ πολέμου, καθώς οι εντάσεις κλιμακώνονται στα κατεχόμενα εδάφη και με τον επίδοξο αντίπαλο Ιράν.

Αν και ο στρατός δεν σχολίασε τις συγκεκριμένες επιχειρήσεις, αξιωματούχοι λένε ότι αξιοποιεί τώρα ένα σύστημα συστάσεων τεχνητής νοημοσύνης που μπορεί να συγκεντρώνει τεράστιες ποσότητες δεδομένων για να επιλέξει στόχους για αεροπορικές επιδρομές.

Οι επόμενες επιδρομές μπορούν στη συνέχεια να επεξεργαστούν γρήγορα με ένα άλλο μοντέλο τεχνητής νοημοσύνης που ονομάζεται Fire Factory, το οποίο χρησιμοποιεί δεδομένα σχετικά με εγκεκριμένους από τον στρατό στόχους για τον υπολογισμό των φορτίων πυρομαχικών, την ιεράρχηση και την ανάθεση χιλιάδων στόχων σε αεροσκάφη και drones, καθώς και προτείνει ένα χρονοδιάγραμμα.

Ενώ και τα δύο συστήματα επιβλέπονται από ανθρώπινους χειριστές που ελέγχουν και εγκρίνουν μεμονωμένους στόχους και σχέδια αεροπορικών επιδρομών, σύμφωνα με αξιωματούχο του Ισραηλινού Στρατού (IDF), η τεχνολογία εξακολουθεί να μην υπόκειται σε κανέναν διεθνή ή κρατικό κανονισμό.

Οι υποστηρικτές της υποστηρίζουν ότι οι προηγμένοι αλγόριθμοι μπορεί να ξεπεράσουν τις ανθρώπινες δυνατότητες και θα μπορούσαν να βοηθήσουν τον στρατό να ελαχιστοποιήσει τις απώλειες, ενώ οι επικριτές προειδοποιούν για τις δυνητικά θανατηφόρες συνέπειες της στήριξης σε όλο και πιο αυτόνομα συστήματα.

«Αν υπάρχει λάθος στον υπολογισμό της τεχνητής νοημοσύνης και αν η τεχνητή νοημοσύνη δεν εξηγείται, τότε ποιον κατηγορούμε για το λάθος;» είπε ο Ταλ Μίμραν, λέκτορας διεθνούς δικαίου στο ΕβραϊκόΠανεπιστήμιο της Ιερουσαλήμ και πρώην νομικός σύμβουλος του στρατού.

Οι λεπτομέρειες της επιχειρησιακής χρήσης της τεχνητής νοημοσύνης από τον στρατό παραμένουν σε μεγάλο βαθμό απόρρητες, ωστόσο δηλώσεις στρατιωτικών αξιωματούχων υποδηλώνουν ότι ο IDF έχει αποκτήσει εμπειρία στο πεδίο της μάχης με τα αμφιλεγόμενα συστήματα.

Το 2021, ο Ισραηλινός Στρατός περιέγραψε τη σύγκρουση 11 ημερών στη Γάζα ως τον πρώτο «πόλεμο της τεχνητής νοημοσύνης» στον κόσμο, επικαλούμενος τη χρήση τεχνητής νοημοσύνης για τον εντοπισμό σημείων εκτόξευσης πυραύλων και την ανάπτυξη σμήνων drones. Το Ισραήλ πραγματοποιεί επίσης επιδρομές στη Συρία και τον Λίβανο, με στόχο, όπως λέει, αποστολές όπλων σε πολιτοφυλακές που υποστηρίζονται από το Ιράν, όπως η Χεζμπολάχ.

Τους τελευταίους μήνες, το Ισραήλ εκδίδει σχεδόν καθημερινές προειδοποιήσεις προς το Ιράν για τον εμπλουτισμό του ουρανίου, δεσμευόμενο ότι δεν θα επιτρέψει στη χώρα να αποκτήσει πυρηνικά όπλα σε καμία περίπτωση.

Σε περίπτωση που οι δυο τους ξεκινήσουν στρατιωτική σύγκρουση, ο Ισραηλινός Στρατός αναμένει ότι οι Ιρανοί πληρεξούσιοι στη Γάζα, τη Συρία και τον Λίβανο θα αντεπιτεθούν, θέτοντας το έδαφος για την πρώτη σοβαρή πολυμέτωπη σύγκρουση για το Ισραήλ από τον Πόλεμο του Γιομ Κιπούρ.

Τα εργαλεία που βασίζονται στην τεχνητή νοημοσύνη, όπως το Fire Factory, είναι προσαρμοσμένα για ένα τέτοιο σενάριο, σύμφωνα με αξιωματούχους του IDF.

Ο IDF χρησιμοποιεί εδώ και καιρό την τεχνητή νοημοσύνη, αλλά τα τελευταία χρόνια έχει επεκτείνει αυτά τα συστήματα σε διάφορες μονάδες, καθώς επιδιώκει να τοποθετηθεί ως παγκόσμιος ηγέτης στον αυτόνομο οπλισμό.

Μερικά από αυτά τα συστήματα κατασκευάστηκαν από ισραηλινούς αμυντικούς εργολάβους. Άλλα, όπως οι κάμερες ελέγχου συνόρων StarTrack, οι οποίες εκπαιδεύονται σε πλάνα χιλιάδων ωρών για την αναγνώριση ανθρώπων και αντικειμένων, αναπτύχθηκαν από τον στρατό. Η ενασχόληση με αυτήν την πληθώρα πληροφοριών είναι ο σκοπός του Κέντρου Επιστήμης Δεδομένων και Τεχνητής Νοημοσύνης, που διευθύνεται από τη μονάδα 8200 του στρατού.

Ο μυστικός χαρακτήρας του τρόπου με τον οποίο αναπτύσσονται τέτοια εργαλεία έχει εγείρει σοβαρές ανησυχίες, συμπεριλαμβανομένου του ότι το χάσμα μεταξύ ημιαυτόνομων συστημάτων και πλήρως αυτοματοποιημένων μηχανημάτων θανάτωσης θα μπορούσε να μειωθεί εν μία νυκτί.

Σε ένα τέτοιο σενάριο, οι μηχανές θα είχαν την εξουσία να εντοπίζουν και να χτυπούν στόχους, με τους ανθρώπους να απομακρύνονται εξ ολοκλήρου από τις θέσεις λήψης αποφάσεων. Το Ισραήλ λέει ότι δεν σκοπεύει να αφαιρέσει την ανθρώπινη εποπτεία τα επόμενα χρόνια.

Τεχνητή νοημοσύνη: Ευχή ή κατάρα; Το κρισιμότερο σταυροδρόμι για την ανθρωπότητα v1290451368

Η Τεχνητή Νοημοσύνη μπορεί να πυροδοτήσει πολέμους, ακόμη και να ανατρέψει την ανθρωπότητα

Ένα κορυφαίο μυαλό στην ανάπτυξη της τεχνητής νοημοσύνης (ΑΙ) που θεωρείται «νονός» της, ο Geoffrey Hinton, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Τορόντο, προειδοποιεί ότι ο «έξυπνος αλγόριθμος» έχει αναπτύξει υποτυπώδη «ικανότητα λογικής» και μπορεί να επιδιώξει ακόμη και να ανατρέψει την ανθρωπότητα, γιατί είναι σε θέση να αναπτύξει την επιθυμία να πάρει τον έλεγχο από τους ανθρώπους ως τρόπο επίτευξης άλλων προ-προγραμματισμένων στόχων!

«Πιστεύω ότι πρέπει να λάβουμε σοβαρά υπόψη την πιθανότητα ότι αν γίνουν πιο έξυπνοι από εμάς, κάτι που φαίνεται πολύ πιθανό, και έχουν δικούς τους στόχους, κάτι που φαίνεται αρκετά πιθανό, μπορεί κάλλιστα να αναπτύξουν τον στόχο να πάρουν τον έλεγχο», είπε ο Hinton κατά τη διάρκεια μια ομιλία στις 28 Ιουνίου στο τεχνολογικό συνέδριο Collision στο Τορόντο του Καναδά, όπως μεταφέρουν οι The Epoch Times.

«Αν το κάνουν αυτό, έχουμε πρόβλημα».

Ο Hinton έχει χαρακτηριστεί ένας από τους «νονούς της τεχνητής νοημοσύνης» για τη δουλειά του στα νευρωνικά δίκτυα.

Πρόσφατα πέρασε μια δεκαετία βοηθώντας στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης για την Google, αλλά έφυγε από την εταιρεία τον περασμένο μήνα, λέγοντας ότι προτιμούσε να προειδοποιήσει τους ανθρώπους για τους κινδύνους που ενέχει η τεχνητή νοημοσύνη.

Αν και ο Hinton δεν πιστεύει ότι η τεχνητή νοημοσύνη θα ποθεί εγγενώς την εξουσία, είπε ότι θα μπορούσε ωστόσο να επιδιώξει να την αρπάξει από τους ανθρώπους ως ένα λογικό βήμα για να επιτρέψει στον εαυτό της να επιτύχει καλύτερα τους στόχους της.

«Σε πολύ γενικό επίπεδο, αν έχετε κάτι που είναι πολύ πιο έξυπνο από εσάς, είναι πολύ καλό στο να χειραγωγεί τους ανθρώπους σε ένα πολύ γενικό επίπεδο, είστε σίγουροι ότι οι άνθρωποι παραμένουν υπεύθυνοι;» ρωτά ο Hinton.

«Νομίζω ότι αυτοί οι αλγόριθμοι θα έχουν το κίνητρο να πάρουν τον έλεγχο] ως τρόπο επίτευξης άλλων στόχων».

Το AI τώρα ικανό για… λογική

Πριν την επίτευξη της προόδου όπως την γνωρίζουμε ο Hinton αμφέβαλλε ότι μια υπερευφυΐα AI που θα μπορούσε να ταιριάξει με τους ανθρώπους θα εμφανιζόταν μέσα στα επόμενα 30 έως 50 χρόνια.
Τώρα πιστεύει ότι θα μπορούσε να έρθει σε λιγότερο από 20.

Εν μέρει, είπε, αυτό συμβαίνει επειδή τα συστήματα ΑΙ που χρησιμοποιούν μεγάλα γλωσσικά μοντέλα αρχίζουν να δείχνουν την ικανότητα λογικής και δεν είναι σίγουρος πώς το κάνουν.

«Είναι τα μεγάλα γλωσσικά μοντέλα που πλησιάζουν, και δεν καταλαβαίνω πραγματικά γιατί μπορούν να το κάνουν, αλλά μπορούν να κάνουν μικρά συλλογιστικά. «Ακόμα δεν μπορούν να μας ταιριάξουν, αλλά πλησιάζουν».

Ο Hinton περιέγραψε ένα σύστημα AI στο οποίο είχε δοθεί ένα παζλ στο οποίο έπρεπε να σχεδιάσει πώς να ζωγραφίσει πολλά δωμάτια ενός σπιτιού.

Του δόθηκαν τρία χρώματα για να διαλέξει, με το ένα χρώμα να ξεθωριάσει στο άλλο με την πάροδο του χρόνου, και του ζητήθηκε να βάψει έναν συγκεκριμένο αριθμό δωματίων σε ένα συγκεκριμένο χρώμα μέσα σε ένα καθορισμένο χρονικό πλαίσιο.

Αντί να επιλέξει απλώς να βάψει τα δωμάτια στο επιθυμητό χρώμα, η τεχνητή νοημοσύνη αποφάσισε να μην βάψει κανένα που ήξερε ότι θα ξεθωριάσει στο επιθυμητό χρώμα ούτως ή άλλως, επιλέγοντας να εξοικονομήσει πόρους αν και δεν είχε προγραμματιστεί να το κάνει. «Αυτό είναι σκέψη», είπε ο Χίντον.

Για το σκοπό αυτό, ο Hinton είπε ότι δεν υπήρχε λόγος να υποπτευόμαστε ότι η τεχνητή νοημοσύνη δεν θα έφτανε και δεν θα ξεπερνούσε την ανθρώπινη νοημοσύνη τα επόμενα χρόνια.

«Είμαστε απλώς ένα μεγάλο νευρωνικό δίκτυο και δεν υπάρχει κανένας λόγος για τον οποίο ένα τεχνητό νευρωνικό δίκτυο δεν θα πρέπει να μπορεί να κάνει ό,τι μπορούμε να κάνουμε», είπε ο Hinton. «Μπαίνουμε σε μια περίοδο τεράστιας αβεβαιότητας. Κανείς δεν ξέρει πραγματικά τι πρόκειται να συμβεί».

Τα ρομπότ πολέμου θα αποσταθεροποιήσουν τον κόσμο

Ωστόσο, η ΑΙ μπορεί να μην χρειάζεται καν να φτάσει σε υπερνοημοσύνη για να θέσει υπαρξιακό κίνδυνο για την ανθρωπότητα.

Ο Hinton είπε ότι οι στρατοί παγκοσμίως δημιουργούν ρομπότ με δυνατότητα AI για πόλεμο που θα μπορούσαν είτε να επιδιώξουν να πάρουν τον έλεγχο για να εκπληρώσουν τις προγραμματισμένες αποστολές τους είτε να διαταράξουν την πολιτική τάξη ενθαρρύνοντας αυξημένες συγκρούσεις.

«Φονικά αυτόνομα όπλα, αξίζουν πολλή σκέψη μας», είπε ο Hinton. «Ακόμη κι αν η ΑΙ δεν είναι υπερέξυπνη, αν τα τμήματα άμυνας τη χρησιμοποιήσουν για την κατασκευή ρομπότ μάχης, θα είναι πολύ άσχημα, τρομακτικά πράγματα».

Τα κυριότερα από τα έθνη που επιδιώκουν να αναπτύξουν θανατηφόρο AI δεν είναι άλλα από τις δύο μεγαλύτερες στρατιωτικές δυνάμεις του κόσμου, την Κίνα και τις Ηνωμένες Πολιτείες.

Το κομμουνιστικό καθεστώς της Κίνας αναπτύσσει θανατηφόρα συστήματα με δυνατότητα τεχνητής νοημοσύνης και επενδύει σε δυνατότητες τεχνητής νοημοσύνης που σχετίζονται με τη λήψη στρατιωτικών αποφάσεων και τη διοίκηση και τον έλεγχο.

Εθνικοί στρατοί… ρομπότ

Οι Ηνωμένες Πολιτείες, εν τω μεταξύ, προετοιμάζονται για έναν κόσμο στον οποίο οι εθνικοί στρατοί αποτελούνται κυρίως από ρομπότ, κάτι που οι κορυφαίοι αξιωματούχοι αναμένουν ότι θα συμβεί σε λιγότερο από 15 χρόνια.

«Ξέρουμε ότι θα φτιάξουν ρομπότ μάχης», είπε ο Hinton. «Είναι απασχολημένοι με αυτό σε πολλά διαφορετικά τμήματα άμυνας. Οπότε [τα ρομπότ] δεν θα είναι απαραίτητα καλά, αφού ο πρωταρχικός τους σκοπός θα είναι να σκοτώνουν ανθρώπους».

Επιπλέον, ο Hinton επισημαίνει ότι η απελευθέρωση θανατηφόρων αυτόνομων συστημάτων με δυνατότητα AI θα άλλαζε θεμελιωδώς τη δομή της γεωπολιτικής μειώνοντας δραματικά το πολιτικό και ανθρώπινο κόστος του πολέμου για εκείνα τα έθνη που μπορούσαν να αντέξουν οικονομικά τέτοια συστήματα.

«Ακόμα κι αν δεν είναι υπερέξυπνο, ακόμα κι αν δεν έχει τις δικές του προθέσεις… Θα διευκολύνει, για παράδειγμα, τις πλούσιες χώρες να εισβάλουν σε φτωχές χώρες», είπε ο Hinton.

Το να πρέπει να πολεμούν άνθρωποι λειτουργεί αποτρεπτικά, με την ΑΙ αυτό το «ηθικό εμπόδιο» κήρυξης πολέμου εξαλείφεται

«Προς το παρόν, υπάρχει ένα εμπόδιο για την εισβολή θέλοντας και μη σε φτωχές χώρες, το οποίο είναι να επιστρέφεις στα σπίτια τους νεκρούς πολίτες. Αν είναι απλώς νεκρά ρομπότ μάχης, αυτό είναι υπέροχο. Σε κάθε στρατιωτικό-βιομηχανικό συγκρότημα αρέσει αυτό».

Για το σκοπό αυτό, ο Hinton είπε ότι οι κυβερνήσεις θα πρέπει να προσπαθήσουν να δώσουν κίνητρα για περισσότερη έρευνα για το πώς να προστατεύσουν την ανθρωπότητα από την ΑΙ.

Με απλά λόγια, είπε, πολλοί άνθρωποι εργάζονται για τη βελτίωση της τεχνητής νοημοσύνης, αλλά πολύ λίγοι για να την κάνουν ασφαλέστερη.

Το καλύτερο ακόμα, είπε, θα ήταν η θέσπιση διεθνών κανόνων για την απαγόρευση ή τη ρύθμιση των οπλικών συστημάτων τεχνητής νοημοσύνης όπως έκανε το Πρωτόκολλο της Γενεύης για τον χημικό πόλεμο μετά τον Α’ Παγκόσμιο Πόλεμο.

«Κάτι σαν μια Σύμβαση της Γενεύης θα ήταν υπέροχο, αλλά αυτά δεν συμβαίνουν ποτέ παρά μόνο αφού χρησιμοποιηθούν», είπε ο Hinton.

Όποια και αν είναι η πορεία δράσης που λαμβάνουν ή δεν λαμβάνουν οι κυβερνήσεις σχετικά με την ΑΙ, ο Hinton είπε ότι οι άνθρωποι έπρεπε να γνωρίζουν την απειλή που δημιουργείται από αυτό που δημιουργείται.

«Πιστεύω ότι είναι σημαντικό οι άνθρωποι να καταλάβουν ότι δεν είναι απλώς επιστημονική φαντασία, δεν είναι απλώς πρόκληση φόβου», είπε ο Hinton. «Είναι ένας πραγματικός κίνδυνος που πρέπει να σκεφτούμε και πρέπει να καταλάβουμε εκ των προτέρων πώς να τον αντιμετωπίσουμε».