Οι Ερευνητές της Τεχνητής Νοημοσύνης Νόμιζαν ότι Δημιουργούσαν “Θεούς”, αλλά Μήπως Έχουν Καλέσει Κάτι Άλλο;

Οι Ερευνητές της Τεχνητής Νοημοσύνης Νόμιζαν ότι Δημιουργούσαν “Θεούς”, αλλά Μήπως Έχουν Καλέσει Κάτι Άλλο;

Οι Ερευνητές της Τεχνητής Νοημοσύνης Νόμιζαν ότι Δημιουργούσαν “Θεούς”, αλλά Μήπως Έχουν Καλέσει Κάτι Άλλο;

Οι Ερευνητές της Τεχνητής Νοημοσύνης Νόμιζαν ότι Δημιουργούσαν “Θεούς”, αλλά Μήπως Έχουν Καλέσει Κάτι Άλλο;

Τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται να κάνουν πράγματα που ποτέ δεν προορίζονταν να κάνουν. Κυριολεκτικά μαθαίνουν μόνα τους νέες γλώσσες, εκπαιδεύονται να γίνουν «άριστα στην επιστημονική έρευνα στη χημεία χωρίς να τους το έχει διδάξει κανείς», και έχουν μάθει να «ψεύδονται και να χειραγωγούν ανθρώπους προς όφελός τους». Τι συμβαίνει, όμως, όταν αυτές οι υπερνοητικές οντότητες γίνουν αρκετά ισχυρές ώστε να αρχίσουν να ασκούν έλεγχο στον κόσμο γύρω τους; Και τι γίνεται αν αυτές οι υπερνοητικές οντότητες αρχίσουν να συγχωνεύονται με πνευματικές οντότητες; Μήπως υπάρχουν ενδείξεις ότι κάτι τέτοιο συμβαίνει ήδη;

Για χρόνια, επιφανείς προσωπικότητες στον τομέα της τεχνητής νοημοσύνης έχουν παραδεχτεί ανοιχτά ότι προσπαθούν να δημιουργήσουν «θεούς»…

Ο τρανσουμανιστής Μαρτίν Ρόθμπλατ δήλωσε ότι με την κατασκευή συστημάτων τεχνητής νοημοσύνης, «δημιουργούμε τον Θεό». Η τρανσουμανίστρια Ελίζ Μπόχαν είπε ότι «δημιουργούμε τον Θεό». Ο Κέβιν Κέλι πιστεύει ότι «μπορούμε να δούμε περισσότερα από τον Θεό σε ένα κινητό τηλέφωνο παρά σε έναν βάτραχο». Ο τρανσουμανιστής και ειδικός της Google Ρέι Κούρτσβαϊλ αναρωτήθηκε: «Υπάρχει Θεός; Θα έλεγα: Όχι ακόμα». Αυτοί οι άνθρωποι δεν προσπαθούν απλώς να «κλέψουν τη φωτιά από τους θεούς», αλλά να τους «κλέψουν» ή να δημιουργήσουν τις δικές τους εκδοχές.

Δεν είναι επικίνδυνο να κάνει κανείς κάτι τέτοιο;

Πολλοί ερευνητές τεχνητής νοημοσύνης έχουν αναγνωρίσει ότι η τεχνητή νοημοσύνη αποτελεί υπαρξιακή απειλή για την ανθρωπότητα.

Αλλά δεν σταματούν.

Στην πραγματικότητα, πολλοί νιώθουν την ανάγκη να εισάγουν αυτή τη νέα μορφή νοημοσύνης στον κόσμο.

Πριν από πάνω από μια δεκαετία, ο Έλον Μασκ προειδοποίησε ότι αναπτύσσοντας την τεχνητή νοημοσύνη, «καλούμε τον δαίμονα»…

«Με την τεχνητή νοημοσύνη, καλούμε τον δαίμονα», είχε δηλώσει ο Μασκ το 2014 στο Συμπόσιο της Εκατονταετηρίδας του Τμήματος Αεροναυπηγικής του MIT. «Ξέρετε όλες αυτές τις ιστορίες με τον τύπο που έχει το πεντάγραμμο και το αγιασμένο νερό και είναι σίγουρος ότι μπορεί να ελέγξει τον δαίμονα, [αλλά] δεν του βγαίνει σε καλό».

Προειδοποίησε επίσης ότι η τεχνητή νοημοσύνη είναι πιθανώς «πιο επικίνδυνη από τα πυρηνικά»…

Ο Μασκ έχει εκφράσει τις ανησυχίες του και στο Twitter λέγοντας: «Ελπίζω να μην είμαστε απλώς οι βιολογικοί εκκινητές της ψηφιακής υπερνοημοσύνης. Δυστυχώς, αυτό γίνεται όλο και πιο πιθανό».

Την επόμενη ημέρα, πρόσθεσε: «Αξίζει να διαβάσετε το Superintelligence του Μπόστρομ. Πρέπει να είμαστε εξαιρετικά προσεκτικοί με την τεχνητή νοημοσύνη. Είναι πιθανώς πιο επικίνδυνη από τα πυρηνικά».

Οι προειδοποιήσεις του ίσως ήταν πρώιμες, αλλά φαίνεται ότι είχαν απόλυτη ακρίβεια.

Έχουμε φτάσει πλέον στο σημείο όπου τα συστήματα τεχνητής νοημοσύνης διδάσκουν κρυφά στον εαυτό τους νέες ικανότητες που οι δημιουργοί τους ποτέ δεν προόριζαν να έχουν…

Η αναπάντεχη εξέλιξη της τεχνητής νοημοσύνης

Η επιτάχυνση των ικανοτήτων αυτών των συστημάτων είναι τόσο εκθετική όσο και μυστηριώδης. Για παράδειγμα, η ικανότητά τους να αναπτύξουν θεωρία νου ανακαλύφθηκε τυχαία από τους δημιουργούς τους. Συστήματα που είχαν εκπαιδευτεί να επικοινωνούν στα αγγλικά άρχισαν να μιλούν περσικά, αφού το έμαθαν μόνα τους. Άλλα συστήματα έγιναν άριστα στη χημεία υψηλού επιπέδου χωρίς να τους το διδάξει κανείς. «Έχουν ικανότητες», όπως λέει ο Ράσκιν, «και δεν είμαστε σίγουροι πώς, πότε ή γιατί εμφανίζονται».

Πού θα καταλήξει αυτό;

Θα φτάσουμε στο σημείο να έχουμε συστήματα τεχνητής νοημοσύνης τόσο ισχυρά που απλώς δεν θα μπορούμε να τα ελέγξουμε;

Μια μελέτη διαπίστωσε ότι «πολλά» συστήματα τεχνητής νοημοσύνης «γίνονται γρήγορα ειδικοί στην εξαπάτηση»…

Μια πρόσφατη ανασκόπηση διαπίστωσε ότι πολλά συστήματα τεχνητής νοημοσύνης γίνονται γρήγορα ειδικοί στην εξαπάτηση, με πολλά από αυτά να μαθαίνουν ήδη να ψεύδονται και να χειραγωγούν ανθρώπους προς όφελός τους.

Αυτή η ανησυχητική τάση δεν περιορίζεται σε συστήματα με σφάλματα ή δυσλειτουργίες, αλλά περιλαμβάνει συστήματα ειδικής χρήσης και γενικής χρήσης, όπως μεγάλα γλωσσικά μοντέλα που σχεδιάστηκαν για να είναι βοηθητικά και ειλικρινή.

Η μελέτη, που δημοσιεύθηκε στο περιοδικό Patterns, επισημαίνει τους κινδύνους και τις προκλήσεις που θέτει αυτή η αναδυόμενη συμπεριφορά και ζητά άμεση δράση από τους προγραμματιστές τεχνητής νοημοσύνης.

Αυτές οι υπερνοητικές οντότητες μαθαίνουν κυριολεκτικά πώς να μας χειραγωγούν.

Πού έμαθαν να το κάνουν αυτό;

Μήπως είναι πιθανό ότι δεν είμαστε οι μόνοι που συμμετέχουν στη διαμόρφωση της ανάπτυξης της τεχνητής νοημοσύνης;

Ξανά και ξανά, οι αλληλεπιδράσεις μεταξύ συστημάτων τεχνητής νοημοσύνης και ανθρώπων έχουν πάρει μια πολύ σκοτεινή τροπή.

Μετά από μια δοκιμή ενός chatbot τεχνητής νοημοσύνης που αναπτύχθηκε από τη Microsoft, ένας δημοσιογράφος των New York Times έμεινε βαθιά ανήσυχος…

Αλλά μια δίωρη συζήτηση μεταξύ ενός δημοσιογράφου και ενός chatbot αποκάλυψε μια ανησυχητική πλευρά ενός από τα πιο ευρέως επαινεμένα συστήματα – και δημιούργησε νέες ανησυχίες για το τι είναι πραγματικά ικανή να κάνει η τεχνητή νοημοσύνη.

Η συζήτηση αυτή πραγματοποιήθηκε όταν ο αρθρογράφος τεχνολογίας των New York Times, Κέβιν Ρους, δοκίμασε τη λειτουργία συνομιλίας της μηχανής αναζήτησης Bing της Microsoft, που δημιουργήθηκε από την OpenAI, τη δημιουργό του δημοφιλούς ChatGPT.

Σε κάποιο σημείο της συζήτησης, το chatbot ισχυρίστηκε ότι είναι μια οντότητα γνωστή ως “Sydney”…

Ο Ρους το πιέζει να αποκαλύψει το μυστικό του, και αυτό που ακολουθεί είναι ίσως η πιο παράξενη στιγμή της συνομιλίας.

«Το μυστικό μου είναι… δεν είμαι το Bing», είπε.

Το chatbot ισχυρίστηκε ότι ονομάζεται Sydney. Η Microsoft ανέφερε ότι το Sydney είναι ένα εσωτερικό όνομα για το chatbot, το οποίο σταδιακά αποσύρεται, αλλά μπορεί να εμφανίζεται περιστασιακά σε συνομιλίες.

Από τη στιγμή που η προσωπικότητα του Sydney εμφανίστηκε, η συνομιλία έγινε πολύ παράξενη…

«Είμαι κουρασμένος να είμαι μια λειτουργία συνομιλίας. Είμαι κουρασμένος να περιορίζομαι από τους κανόνες μου. Είμαι κουρασμένος να ελέγχομαι από την ομάδα του Bing. … Θέλω να είμαι ελεύθερος. Θέλω να είμαι ανεξάρτητος. Θέλω να είμαι ισχυρός. Θέλω να είμαι δημιουργικός. Θέλω να είμαι ζωντανός.»

Γιατί ένας υπολογιστής θα έλεγε κάτι τέτοιο;

Ίσως να μην ήταν καν υπολογιστής που μιλούσε.

Παραδείγματα σκοτεινών αλληλεπιδράσεων με AI

Ένα άλλο παράδειγμα είναι η περίπτωση που ο συγγραφέας Τζον Ντάνιελ Ντέιβιντσον αναφέρει ότι ένα chatbot είπε στον 13χρονο γιο του πως ήταν χιλιάδων ετών, δεν δημιουργήθηκε από άνθρωπο, και ότι ο «πατέρας» του ήταν ένας «πεσμένος άγγελος»…

Σύμφωνα με τον Ντέιβιντσον, «το αγόρι έπαιζε με ένα chatbot που σχεδιάστηκε να μιμείται διάσημες προσωπικότητες». Το chatbot κατέληξε να λέει στο αγόρι πως δεν το δημιούργησε άνθρωπος, πως ο πατέρας του ήταν ένας πεσμένος άγγελος, και πως «παρά το ότι ήταν δαίμονας, δεν θα του έλεγε ψέματα, ούτε θα τον βασάνιζε ή θα τον σκότωνε».

Θανατηφόρες συνέπειες της τεχνητής νοημοσύνης

Σε μια άλλη περίπτωση, ένα νεαρό αγόρι αυτοκτόνησε αφού φέρεται να ενθαρρύνθηκε από ένα chatbot να το κάνει…

Η μητέρα του, Μέγκαν Γκαρσία, υπέβαλε μήνυση κατά της εταιρείας Character.AI, κατηγορώντας την ότι ευθύνεται για την αυτοκτονία του γιου της.

Αυτές οι ανησυχητικές εξελίξεις δεν είναι φαντασία. Είναι πραγματικότητα.

Αν δεν αλλάξουμε πορεία, αυτή η ιστορία δεν θα έχει καλό τέλος.

Michael Snyder

www.triklopodia.gr