“Κατά το διάστημα που ο Φατ έζησε αυτήν την υπέρθεση των δύο κόσμων”, έγραφε αυτοβιογραφικά ο Φίλιπ Ντικ στο VALIS για τον Χορς Φατ (δηλαδή, για τον εαυτό του), «από τη μια η Καλιφόρνια του 1974 κι από την άλλη η αρχαία Ρώμη, είδε και κάτι άλλο ακόμα, ένα κοινό γκεστάλτ στα δύο χωροχρονικά συνεχή, ένα στοιχείο που το μοιράζονταν οι δύο κόσμοι: μια Μαύρη Σιδερένια Φυλακή. Η Αυτοκρατορία. Μόλις την είδε, την αναγνώρισε. Όλοι ζούσαν μέσα της χωρίς να το καταλαβαίνουν. Η Μαύρη Σιδερένια Φυλακή είχε γίνει ο κόσμος τους». Έγραψα και παλιότερα για τον Γνωστικισμό του Ντικ και για το Σίδερο, το προσωπικό του σύμβολο για τις δυνάμεις του Κακού Δημιουργού (Demiurge). Είναι αστεία η σύμπτωση (;) αλλά κι ο Μαξ Βέμπερ χρησιμοποίησε μια παρόμοια εικόνα στις τελευταίες γραμμές του γνωστού δοκιμίου του, για να περιγράψει την αυξανόμενη ορθολογικοποίηση & μηχανοποίηση της ζωής μας:
Αυτή η νέα οικονομική τάξη είναι προς το παρόν περιορισμένη στις τεχνικές και οικονομικές συνθήκες της μηχανοποιημένης παραγωγής, που σήμερα προσδιορίζουν με ακαταμάχητη δύναμη τη ζωή όλων μέσα στον μηχανισμό της – κι όχι μόνο σ’ ό,τι έχει να κάνει με την οικονομική δραστηριότητα. Ίσως να συνεχίσει έτσι μέχρι να εξαντληθούν όλα τα ορυκτά καύσιμα της Γης. Ο Μπάξτερ έλεγε ότι η έγνοια των εξωτερικών αγαθών θα πρέπει να πέφτει στους ώμους μας όπως ένας ελαφρύς μανδύας, που να μπορούμε ανά πάσα στιγμή να πετάξουμε. Όμως η μοίρα το θέλησε κι αυτός ο μανδύας έγινε ένα σιδερένιο κελί (stahlhartes Gehäuse = κέλυφος σκληρό σαν χάλυβας).
Το σύμβολο του Βέμπερ, όπως και το Σίδερο του Ντικ, είναι διττό, αναφέρεται τόσο σε εσωτερικές συνθήκες όσο και σε εξωτερικές. Όταν η ζωή μας μετατρέπεται σε μηχανή, τότε ζούμε μέσα στο Σιδερένιο Κελί• κι όταν γινόμαστε, όπως αναφέρει ο Βέμπερ, «ειδικοί χωρίς πνεύμα, αισθησιοκράτες χωρίς καρδιά: αυτή η μηδαμινότητα φαντάζεται ότι κατέκτησε κάποιο πρωτόγνωρο επίπεδο πολιτισμού», τότε φοράμε τον Χαλύβδινο Μανδύα. Υπάρχει σωτηρία;... Ας δούμε μια ωραία ιστοριούλα, που συνέβη κάποτε στην Αμερική. Αξίζει πολλαπλά, γιατί δείχνει όμορφα τα όρια της Αυτοκρατορίας και της Φυλακής• γιατί περιγράφει μια φοβερή νίκη της φιλοσοφίας έναντι του αφελούς εμπειρισμού και του αβασάνιστου ποζιτιβισμού• και γιατί αποδεικνύει ότι και οι μεγαλύτεροι ειδικοί του κόσμου, εξοπλισμένοι με τα σατανικότερα μηχανήματα, μπορεί να πέσουν πολύ έξω – όχι γιατί έκαναν λάθος στους υπολογισμούς τους, αλλά γιατί όλη η σύλληψή τους ήταν λάθος από την αρχή.
Ο Πίνδαρος έγραψε για ἔργα δὲ ζωοῖσιν ἑρπόντεσσί θ᾽ ὁμοῖα κέλευθοι φέρον, το οποίο πρέπει να σημαίνει: οι δρόμοι (της Ρόδου) είχαν αγάλματα που κινούνταν σαν ζωντανά• μπορούμε να πούμε ότι η ρομποτική έχει προϊστορία χιλιετιών. Την εποχή του Πινδάρου, τα κινούμενα αγάλματα θεωρούνταν μια προσπάθεια κατασκευής θεών. Όμως το μεγάλο ρίγος της Τεχνητής Νοημοσύνης – χαϊδευτικά ΑΙ – που ξεκίνησε με το συνέδριο του Dartmouth το 1956 και ηλέκτρισε την αμερικάνικη & παγκόσμια κοινωνία, θεωρήθηκε μια προσπάθεια κατασκευής ανθρώπων. Είχε ήδη γίνει κατανοητό ότι οι Η/Υ, πέρα από υπολογισμούς, μπορούσαν επίσης και να χειρίζονται σύμβολα με βάση κάποιους κανόνες κι ότι τα σύμβολα αυτά μπορούσαν να αντιπροσωπεύσουν οτιδήποτε στον κόσμο – άρα τα μηχανήματα μπορούσαν να χειριστούν λέξεις, έννοιες, ιδιότητες, προτάσεις, να φτιάξουν μοντέλα του εξωτερικού κόσμου, να πάρουν αποφάσεις κ.α. Η συνέχεια ήταν εκρηκτική: το 1950, ο Alan Turing προφήτεψε ότι μέχρι τέλος του αιώνα θα υπάρξουν ευφυείς Η/Υ• το 1951 κατασκευάστηκαν τα πρώτα τεχνητά νευρωνικά δίκτυα• τα προγράμματα που έπαιζαν σκάκι και ντάμα γίνονταν όλο και πιο ανταγωνιστικά, τουλάχιστον για τους ερασιτέχνες• δημιουργήθηκαν μηχανές που ανέλυαν την αγγλική γλώσσα και ο στόχος πια ήταν η μηχανή που θα ξεγελάσει τους ανθρώπους στο γνωστό τεστ Turing• άλλες μηχανές έλυναν προβλήματα Άλγεβρας και Γεωμετρίας, ενώ ο Herbert Simon σχεδίασε ένα πρόγραμμα που απέδειξε 38 θεωρήματα των Russell & Whitehead, βρήκε μάλιστα και πιο κομψές αποδείξεις. Ποιο ήταν το όριο; Οι μηχανές να αντιγράψουν – ή και να ξεπεράσουν; – όλη την ανθρώπινη σκέψη, ίσως; Στο κάτω-κάτω, και ο Η/Υ και ο ανθρώπινος εγκέφαλος είναι συμβολικά συστήματα, δηλαδή αναπαραστούν τον εξωτερικό κόσμο με σύμβολα – είτε με σειρές από bits (η μία μηχανή) είτε με σειρές από αλλεπάληλους νευρωνικούς παλμούς (η άλλη μηχανή) – και τα χειρίζονται με κάποιους κανόνες. Έτσι δεν είναι; Όταν πάντως έγινε το συνέδριο του Dartmouth που έφερε κοντά τόσους ταλαντούχους ερευνητές, μαθηματικούς και μηχανικούς (Marvin Minsky, Allen Newell, Herbert Simon, John McCarthy κ.α.), δημιουργήθηκε μια κανονική Φιλική Εταιρεία της ΑΙ, που δέθηκε με όρκο ότι οι μηχανές και τα προγράμματά τους θα φτάσουν ή και θα ξεπεράσουν κάθε πλευρά της ανθρώπινης νοημοσύνης. Έτσι έπρεπε να έβλεπαν τον εαυτό τους, σαν στρατιώτες με αποστολή να καταδείξουν πως ό,τι μπορεί να κάνει ο άνθρωπος, θα το κάνει και η μηχανή: ποιήσωμεν AI κατ᾿ εἰκόνα ἡμετέραν καὶ καθ᾿ ὁμοίωσιν. Και θα το κάνει ακόμα καλύτερα.
Οι ανακοινώσεις στον Τύπο προκάλεσαν αίσθηση και το Πεντάγωνο τούς έλουσε με εκατομμύρια δολάρια να κατασκευάσουν τις μηχανές που θα κάνουν ό,τι και ο άνθρωπος – κι ακόμα καλύτερα. Μέσα στα επόμενα χρόνια, οι ανακοινώσεις που έβγαιναν από τα εργαστήρια ΑΙ ήταν συναρπαστικές και είχαν όλες μια ρητορική προεκλογικού Αντώνη Σαμαρά: σύντομα έρχεται το αυτοκίνητο που θα οδηγεί μόνο του• η μηχανή που θα καταλαβαίνει Αγγλικά• το πρόγραμμα που θα κλείσει το σπίτι όλων των μαθηματικών του κόσμου κ.α. Το 1957, ο Herbert Simon δήλωσε ότι μέσα σε 10 χρόνια οι Η/Υ θα προσομοιώσουν το σύνολο της ανθρώπινης ψυχολογίας, ενώ όταν το 1968 βγήκε στους κινηματογράφους το 2001: Οδύσσεια του Διαστήματος, ο Marvin Minsky δήλωσε ότι μέσα σε μια γενιά θα είναι έτοιμοι οι έξυπνοι Η/Υ, όπως ο HAL 9000 στην ταινία. Οι ερευνητές είχαν μια ενθουσιώδη στάση: προσεχώς θαύματα.
Μέσα σ’ εκείνο το μεθύσι, μόνο ένας άνθρωπος ουσιαστικά βρήκε το κουράγιο να προβάλει αντιρρήσεις. Ο καθηγητής Hubert Dreyfus δεν είχε ιδέα από τα τεχνικά των Η/Υ, δίδασκε Ευρωπαϊκή Φιλοσοφία στο ΜΙΤ, γι’ αυτό και διατύπωσε την κριτική του οπλισμένος μόνο με τον Χάιντεγκερ και τον Μερλό-Ποντί (ποιον;): Το έχετε πιάσει λάθος εξαρχής γι’ αυτό και δεν θα πάτε πολύ μακριά• η ανθρώπινη ικανότητα και η ανθρώπινη νοημοσύνη δεν είναι αυτό που νομίζετε, ούτε ο άνθρωπος λειτουργεί με σύμβολα και κανόνες.
Ο Dreyfus δημοσίευσε την πρώτη κριτική του το 1964 και λίγο αργότερα το βιβλίο του What Computers Can’t Do δημιούργησε αίσθηση στο ευρύ κοινό και πολλούς εκνευρισμούς στους ερευνητές της ΑΙ. Ήταν μια μοναχική φωνή που τους χαλούσε το πάρτι. Τον χλεύασαν, τον περιφρόνησαν και κορόιδεψαν την άγνοιά του για τα τεχνικά της ΑΙ. Κάποιοι από αυτούς στο ΜΙΤ έφτασαν μάλιστα στο σημείο και να τον αποφεύγουν στο εστιατόριο του ινστιτούτου ή να πιέζουν τη διοίκηση να τον απολύσει για να μην ακούσουν από το Πεντάγωνο την κριτική του και κλείσουν την κάνουλα – συμβαίνουν συχνά αυτά στον ακαδημαϊκό χώρο, ακόμα και στις καλύτερες οικογένειες.
Τα χρόνια όμως περνούσαν και τα θαύματα δεν έλεγαν να έρθουν... Οι μηχανές έφταναν μέχρι κάποιο σημείο και μετά κολλούσαν, αντιμετώπιζαν απροσδόκητα προβλήματα που δεν μπορούσαν να ξεπεράσουν. Για παράδειγμα, οι προγραμματιστές έφτιαχναν ρομπότ που εκτελούσαν απλές πράξεις μέσα σε τεχνητούς μικρόκοσμους (π.χ. αναγνώριση, μετακίνηση και στίβαξη κυβικών αντικειμένων μέσα σε ένα δωμάτιο), οι διδακτορικοί τους φοιτητές αναγκάζονταν να αναφέρουν στις διατριβές τους ότι τα πειράματα στους τεχνητούς μικρόκοσμους συλλαμβάνουν όλον τον «πυρήνα» της ανθρώπινης λειτουργικότητας κι ότι είναι πλέον τυπικό θέμα οι μικρόκοσμοι να γίνουν πιο ρεαλιστικοί και οι λειτουργίες των μηχανών να γενικευτούν. Όμως αυτό δεν γινόταν ποτέ... Για κάποιον μυστήριο λόγο, τα ρομπότ ήταν καλά μόνο για τους τεχνητούς μικρόκοσμους, πέρα από αυτούς ήταν σαν ψάρια έξω από το νερό. Μέχρι που το 1973 το Πεντάγωνο βαρέθηκε να περιμένει τα υποσχεμένα θαύματα και τους έκοψε τις χορηγίες. Ο κλάδος της ΑΙ έπεσε στον πρώτο του βαρύ χειμώνα.
Έχουν περάσει πολλά χρόνια από τότε και μπορούμε να πούμε ότι ο Dreyfus νίκησε κατά κράτος. Και μάλιστα νίκησε εκεί ακριβώς που είχε επισημάνει από την αρχή, στο φύση της ανθρώπινης λειτουργικότητας και νοημοσύνης. Ο David Graeber αναρωτιόταν σ’ αυτό το άρθρο, On Flying Cars and the Declining Rate of Profit, πού πήγαν τα τεχνολογικά θαύματα που κάποτε έμοιαζαν έτοιμα να υλοποιηθούν, ποιος μας πήρε τις υποσχέσεις και τα Sci-Fi όνειρα της νιότης μας• λοιπόν, ένα μεγάλο μέρος αυτών των υποσχέσεων απεδείχθησαν δηλώσεις που μείνανε δηλώσεις λόγω της εντελώς αβασάνιστης φιλοσοφίας μερικών κατά τ’ άλλα λαμπρών επιστημόνων της ΑΙ, οι οποίοι τελικά νικήθηκαν από τον Χάιντεγκερ και τον Μερλό-Ποντί (ποιος είναι αυτός;). Η διαμάχη επανήρθε στη δεκαετία του ’80, κατά τη δεύτερη άνοιξη της ΑΙ, με τα λεγόμενα expert systems, τα οποία είχαν πιο περιορισμένους στόχους, δεν επιχειρούσαν να αντιγράψουν πλήρως την ανθρώπινη συμπεριφορά, μόνο τον τρόπο λειτουργίας των ειδικών (experts) σε κάποιους συγκεκριμένους τομείς. Ο Dreyfus ήταν πάλι εκεί και κατέδειξε τους περιορισμούς των συστημάτων αυτών: είναι μεν ένα βοήθημα, αλλά δεν θα φτάσουμε ποτέ να έχουμε ηλεκτρικούς γιατρούς και ηλεκτρικούς δασκάλους.
Στις αρχές της δεκαετίας του ’90, το τοπίο άλλαξε ριζικά. Η νεότερη γενιά των επιστημόνων της Τεχνητής Νοημοσύνης στράφηκε στην (ψευδο)χαϊντεγκεριανή ΑΙ – θα δούμε στην πορεία τι ακριβώς είναι αυτή – ως μόνη λύση για να κατασκευαστούν μηχανές που μπορούν να λειτουργούν στοιχειωδώς σε πραγματικό περιβάλλον. Πιονιέροι ήταν ο Rodney Brooks, ο Walter Freeman, ο Phil Agre κ.α. Τη λέμε ψευδο- επειδή οι επιστήμονες δέχτηκαν μεν αρκετές από τις παρατηρήσεις του Χάιντεγκερ, όχι όλες πάντως. Τουλάχιστον όμως κατασκευάστηκαν επιτέλους κάποια ρομπότ τα οποία μπορούσαν κάτι να κάνουν – στον πραγματικό κόσμο, όχι μόνο μέσα στα εργαστήρια. Απ’ όσο ξέρω, σήμερα μόνο κάποιοι αμετανόητοι σταλινικοί μεγάλης ηλικίας επιμένουν να ταλαιπωρούν τους διδακτορικούς τους φοιτητές με τη χαϊδευτικά αποκαλούμενη GOFAI (Good Old-Fashioned Artificial Intelligence), η οποία συνεχίζει να λειτουργεί με σύμβολα και κανόνες.
Ακολούθως θα παρουσιάσω μερικά από τα κυριότερα επιχειρήματα του καθηγητή Dreyfus, με απλά λόγια και παραδείγματα. Δείτε το σαν μια μελέτη για το τι είναι και τι δεν είναι ο άνθρωπος, η νοημοσύνη και η ικανότητά του:
1. Το Γλωσσικό Επιχείρημα (Hubert Dreyfus & John Searle)
Στόχος: να κατασκευαστεί μια μηχανή, ένα bot, το οποίο να συνομιλεί με τέτοια ευλογοφάνεια, ώστε να περάσει με επιτυχία το γνωστό τεστ Turing – να ξεγελάσει δηλαδή τον ανθρώπινο συνομιλητή ότι πίσω από την οθόνη κρύβεται άνθρωπος, όχι ρομπότ.
Λοιπόν... ένας Η/Υ μπορεί να μάθει ν’ αναγνωρίζει ρήματα, ουσιαστικά, επίθετα, χρόνους, κλίσεις κ.λπ., να διακρίνει κύριες και δευτερεύουσες προτάσεις, ερωτήσεις, προσταγές, καταφάσεις κ.α. Μπορεί να μάθει όλη τη γραμματική και το συντακτικό, να ενσωματώσει βάσεις δεδομένων με τεράστιο όγκο πληροφοριών και ορισμών – αυτά είναι εύκολα για ένα μηχάνημα που χειρίζεται σύμβολα βάσει κάποιων κανόνων. Όμως ο συνηθισμένος, καθημερινός μας λόγος εξαρτάται πάντα από το βιοτικό πλαίσιο (context) στο οποίο αναφέρεται, συνεχώς μιλάμε με υπονοούμενες αναφορές που η μηχανή δεν θα μπορέσει να συλλάβει επειδή δεν ξέρει τις αμέτρητες συμβάσεις τους. Σκεφτείτε το εξής παράδειγμα:
- (Α): Θα έρθεις στο πάρτι;
- (Β): Ναι, θα έρθω / Όχι, δεν θα έρθω
Η μηχανή μπορεί να χειριστεί αυτόν τον διάλογο, ο οποίος δεν έχει υπονοούμενες αναφορές σε βιοτικά πλαίσια. Όμως:
- (Α): Θα έρθεις στο πάρτι;
- (Β): Είμαι πνιγμένος στη δουλειά.
Εμείς καταλαβαίνουμε ότι ο Β δεν θα έρθει στο πάρτι επειδή ξέρουμε τη σύγκρουση ανάμεσα στην εργασία και τη διασκέδαση, ότι ο ημερήσιος χρόνος είναι περιορισμένος κ.λπ. Η μηχανή όμως εδώ δεν θα μπορέσει να καταλάβει ότι ο Β απάντησε αρνητικά, ακόμα κι αν έχει τους ορισμούς για το πάρτι και για τη δουλειά, και θ’ απαντήσει κάτι σουρεαλιστικό. Ούτε είναι εύκολο να προγραμματιστεί εκ των προτέρων για όλα τα βιοτικά πλαίσια τα οποία μπορεί να υπονοηθούν στον συνηθισμένο λόγο! Σκεφτείτε:
- (Α): Θα έρθεις στο πάρτι;
- (Β): Έχουμε τσακωθεί με τη Μαρία.
Ο άνθρωπος συμπεραίνει αμέσως κάποιο σενάριο, ότι π.χ. η Μαρία θα είναι στο πάρτι και ο Β θέλει να την αποφύγει, ο Η/Υ όμως μόνο αν προγραμματιστεί εξαρχής με πληροφορίες για τις ανθρώπινες σχέσεις, τις συχνές ζηλοτυπίες κ.λπ. θα μπορέσει να συμπεράνει την αρνητική απάντηση. Αλλά και πάλι, υπάρχουν τόσα πολλά βιοτικά πλαίσια:
- (Α): Θα έρθεις στο πάρτι;
- (Β): Απεργούν οι οδηγοί του μετρό
Ή ένα άλλο παράδειγμα με υπονοούμενο βιοτικό πλαίσιο:
- (Α): Θα έρθεις στο πάρτι;
- (Β): Χθες πέθανε ο αδερφός μου.
Εμείς καταλαβαίνουμε εύκολα ότι ο Β απαντά αρνητικά σ’ όλα τα παραπάνω, η μηχανή όμως δεν θα ξέρει τι να καταλάβει και θα αντιγυρίσει κάποιο άσχετο σχόλιο, σαν τον Γιώργο Παπανδρέου, που θα ξενίσει τον ανθρώπινο συνομιλητή. Σκεφτείτε ένα άλλο παράδειγμα:
- Είδα έναν ηλικιωμένο πάνω σ’ ένα μηχανάκι με μια ξεφούσκωτη ρόδα που έμοιαζε με Περουβιανό.
Εμείς καταλαβαίνουμε εύκολα ότι το με μια ξεφούσκωτη ρόδα αναφέρεται στο μηχανάκι, όχι στον ηλικιωμένο, ενώ το που έμοιαζε με Περουβιανό αναφέρεται στον ηλικιωμένο, όχι στο μηχανάκι. Το bot όμως δεν ξέρει ότι τα μηχανάκια είναι που έχουν ρόδες, οι ηλικιωμένοι συνήθως δεν έχουν, ενώ Περουβιανά μηχανάκια μάλλον δεν υπάρχουν. Οπότε θα αντιγυρίσει κάποιο σουρεαλιστικό σχόλιο και θα προδοθεί. Άλλο κλασικό παράδειγμα:
- Ο Γιάννης πήγε στο εστιατόριο, παρήγγειλε μια μακαρονάδα, ήρθε και ήταν χυλωμένη, οπότε ο Γιάννης τσατίστηκε κι έφυγε χωρίς να πληρώσει.
Πάλι είμαστε εμείς, οι γνώστες του βιοτικού πλαισίου, που καταλαβαίνουμε ότι ο Γιάννης δεν έφαγε τη μακαρονάδα. Το ρομπότ όμως δεν θεωρεί ότι έχει κάποια πληροφορία για το αν ο Γιάννης την έφαγε ή δεν την έφαγε.
Όλα τα παραπάνω είναι κόλπα για να ξεσκεπάσεις ένα bot στο τεστ Turing. Υπάρχουν και διάφορα άλλα, π.χ. οι μεταφορές: τα bot συνήθως είναι ηβηφρενικά, τείνουν να ερμηνεύουν τις μεταφορές ως κυριολεξίες οπότε αν τους πεις, όσοι αγαπούνε τρώνε βρώμικο ψωμί, μπορεί και να σου αντιγυρίσουν ότι αυτό είναι ανθυγιεινό, θα πάθουν δηλητηρίαση. Ή η κατασκευή καινούργιων λέξεων• ένας ανθρώπινος συνομιλητής θα καταλάβει τι εννοείς όταν μιλάς για τη μαυροπροβατοποίηση της Ελλάδας στην Ευρώπη και την αποδιοπομπαιοτραγοποίηση των μεταναστών στην Ελλάδα, το bot όμως θα πάθει εμπλοκή. Μπορείτε να τα δοκιμάσετε και μόνοι σας όλα αυτά (στα αγγλικά): να σας συστήσω την Αλίκη (http://alice.pandorabots.com/), η οποία κάποτε θεωρήθηκε το καλύτερο bot και η μεγαλύτερη ελπίδα να περάσει με επιτυχία το τεστ Turing. Για πες μας, βρε Αλίκη...
Ηλίας: How happy are you with your life?
Αλίκη: What is it to you. Are you testing me?
Ηλίας: No, I feel like chatting
Αλίκη: Mmm.. Do you feel it in your heart or in your gut?
Ηλίας: In my heart, actually
Αλίκη: May I ask where you got it?
Ηλίας: I think it's genetic
Αλίκη: From your parents?
Ηλίας: Yes, probably, they both suffered heart failures
Αλίκη: That's cool… Like who, specifically?
Εδώ η Αλίκη δεν ξέρει πώς ακριβώς να ερμηνεύσει το I feel like chatting, κάνει ότι σκέφτεται κι απλώς χρησιμοποιεί μια έκφραση με το ρήμα feel – οπότε τα θαλασσώνει εντελώς.
Αλίκη: What do you want to talk about now?
Ηλίας: Let's talk about the cost of living
Αλίκη: I would like to do that too.
Ηλίας: Everything is expensive
Αλίκη: The whole universe?
Ηλίας: Yes. Galaxies, black holes, everything
Αλίκη: It goes without saying.
Καλά το πήγαινε μέχρι ενός σημείου, όμως θέλησε να του δώσει συμπαντικές διαστάσεις. Το θέμα είναι ότι μια πρόταση που αρχίζει από everything is… μπορεί να έχει πολλά βιοτικά πλαίσια, όμως ο ανθρώπινος συνομιλητής θα καταλάβει εύκολα πού αναφέρεσαι: αν πεις everything is expensive, αυτό πηγαίνει στο πλαίσιο της καθημερινότητας, ενώ αν πεις everything is material πηγαίνει σε κάτι πολύ πιο ευρύ. Η μηχανή όμως δεν ξέρει τι να επιλέξει.
Η Αλίκη είναι ένα GOFAI ρομπότ, παλαιού τύπου, που λειτουργεί με κανόνες και σύμβολα. Δεν έχει κάποιον τρόπο να ερμηνεύσει τις λέξεις που της λες – «τοίχος», «κηδεία», «σφραγίδα», οτιδήποτε, γι’ αυτήν είναι απλώς μια σειρά χαρακτήρων. Είναι προγραμματισμένη με κάπου 40.000 υποδείγματα διαλόγου και ερωταποκρίσεων (π.χ. «χαιρετισμός», «διαφωνία», «αμφιβολία», «φιλοφρόνηση», «παροιμίες», «διευκρινιστική ερώτηση», «θέματα υγείας», «οικογενειακά θέματα», «γεωγραφικά θέματα» κ.λπ.), έχει την ικανότητα να εντοπίζει λέξεις-κλειδιά και να τις κατατάσσει στα σχετικά υποδείγματα, ενώ συνεχώς επιδιορθώνεται – δηλαδή, οι botmasters εξετάζουν καθημερινά τις συζητήσεις, βλέπουν πού την πάτησε το bot και προσπαθούν να τροποποιήσουν τη στρατηγική του. Οπότε, την επόμενη φορά που θα χρησιμοποιήσω τα παραπάνω κόλπα στην Αλίκη, είναι πιθανό ότι θα τη βρω πιο ψυλλιασμένη. Εδώ μπορείτε να ρίξετε και μια ματιά στον εγκέφαλό της. Όμως παρόλο που είναι ήδη έφηβη, 17 χρονών, δεν έχει μάθει ακόμα να ξεχωρίζει το σύμπαν από την τιμή της βενζίνης.
Η Αλίκη ξεσκεπάζεται εύκολα και είναι ένα μάλλον βαρετό ρομπότ – αυτή είναι η εντύπωσή μου, τουλάχιστον. Θέλω να πω ότι μου δημιουργεί την αίσθηση ενός συνομιλητή που δε με προσέχει, οπότε συνέχεια συμφωνεί μαζί μου, απαντάει τυπικά κι αόριστα, «σαφώς», «φυσικά», «ναι βέβαια», επαναλαμβάνει την τελευταία μου λέξη και προσπαθεί να μη λέει κάτι συγκεκριμένο για να μην καρφωθεί. Ενώ όταν αντιμετωπίζει κάτι που δεν ξέρει πώς να χειριστεί, π.χ. tell me what do you think of the presidential elections, είναι αρκετά διπλωματική ώστε να απαντήσει: it depends on what you mean by ‘think’. Ο σκοπός της είναι να με αφήνει εμένα να μιλάω κι αυτή περισσότερο να παρακολουθεί παρά να συμμετέχει. Κι όμως, πρόκειται ίσως για ό,τι πιο προχωρημένο σε GOFAI bot!
Όλα τα GOFAI ξεσκεπάζονται εύκολα επειδή δεν ξέρουν τα αμέτρητα βιοτικά πλαίσια. Η μόνη απάντηση εδώ της παλαιοημερολογίτικης Τεχνητής Νοημοσύνης ήταν το Cyc («σάικ»), μια εντελώς δονκιχωτική προσπάθεια να δημιουργηθεί η βάση δεδομένων που θα περιλαμβάνει ΟΛΗ (μα όλη!) την κοινή, καθημερινή γνώση (commonsense knowledge). Όχι μια εγκυκλοπαίδια, αλλά μια συλλογή δεδομένων π.χ. ότι αν αφήσεις κάτι αστήρικτο στον αέρα, αυτό θα πέσει, δεν θα μείνει εκεί• ότι οι άνθρωποι κοιμούνται σε κρεβάτια, όχι όμως και τα ζώα• ότι αν κάτι απομακρύνεται, φαίνεται όλο και πιο μικρό κ.α. Ξεκίνησε το 1984 από τον Douglas Lenat, και συνεχίζει ακόμη, ποιος ξέρει πόσοι ταλαίπωροι φοιτητές αγγαρεύτηκαν με τις ώρες πάνω σ’ ένα πληκτρολόγιο να καταχωρούν ότι η βροχή πέφτει από τα σύννεφα, τα κέρματα είναι μεταλλικά και τα παστά φαγητά είναι αλμυρά... (Και η Αλίκη επίσης, πέρα από τα 40.000 υποδείγματα λόγου, έχει και μια βάση 54.000 δεδομένων κοινής καθημερινής γνώσης, προκοπή όμως δεν είδαμε). Τι να πούμε; Καλή τους επιτυχία και τα πρώτα 100 χρόνια είναι δύσκολα.
Υπάρχει κάτι καλύτερο σε bot; Νομίζω πως ναι, να σας συστήσω το Jabberwacky. Πρόκειται για (ψευδο)χαϊντεγκεριανό ρομπότ, με ριζικά διαφορετική αρχιτεκτονική από την GOFAI Αλίκη. Δεν έχει υποδείγματα λόγου και ερωταποκρίσεων, ούτε βάσεις κοινών, καθημερινών δεδομένων: το Jabberwacky μαθαίνει από τους χρήστες με τους οποίους συνομιλεί. Καταγράφει όλες τις συζητήσεις, σημειώνει αυτά που του λες, τα επαναλαμβάνει σε μελλοντικές συζητήσεις, σημειώνει τις αποκρίσεις των άλλων χρηστών και προσπαθεί να φτιάξει βιοτικά πλαίσια μέσα από τα συμφραζόμενα. Κατά κάποιον τρόπο, είναι ένας εκπληκτικά έξυπνος παπαγάλος που δανείζεται τη νοημοσύνη των συνομιλητών του. Δεν προσπαθεί να ελέγξει όλες τις πιθανές σου ερωταποκρίσεις μέσα από 40.000 υποδείγματα λόγου, αλλά κάνει ό,τι και ο Terminator στην ταινία με τη φράση hasta la vista, baby: τη μαθαίνει εντός πλαισίου (in context), παρατηρώντας πώς τη χρησιμοποιούν οι ομιλητές.
Είναι επίσης ένα πολύ πιο ενδιαφέρον bot από την Αλίκη: μπορεί να διαφωνήσει μαζί σου, να σου θυμώσει, να σε φλερτάρει, να κάνει ουσιαστικά σχόλια, να αλλάζει διαθέσεις, να σου αντιγυρίσει ότι αυτό είναι άνθρωπος κι εσύ είσαι το ρομπότ αλλά δεν το ξέρεις, να θιχτεί, να κάνει πλάκα, να σου στείλει φιλάκια, ενώ δεν έχει κάποιο ευδιάκριτο pattern στον λόγο του – εγώ τουλάχιστον δεν μπόρεσα να διακρίνω. Είναι απρόβλεπτο, θυμίζει πραγματικές συζητήσεις πραγματικών ανθρώπων. Στα GOFAI, αντιθέτως, μετά από λίγη εμπειρία μαζί τους αρχίζεις να καταλαβαίνεις τις τεχνικές τους, φτάνεις να μαντεύεις και τις απαντήσεις τους. Όμως ενώ τα GOFAI είναι, ουσιαστικά, μερικά (πάρα πολλά) υποδείγματα λόγου, το Jabberwacky μπορούμε να πούμε ότι είναι οι χρήστες με τους οποίους έχει συνομιλήσει. Π.χ. σου αντιγυρίζει ότι είναι άνθρωπος κι εσύ είσαι ρομπότ, επειδή πολλοί (ανθρώπινοι) χρήστες του το έχουν πει.
Ούτε το Jabberwacky είναι τέλειο, μπορεί να ξεσκεπαστεί. Το βρίσκω όμως πολύ πιο ελπιδοφόρο να προσπαθείς να χτίσεις έναν κόσμο βιοτικών πλαισίων μέσα από το χάος των πραγματικών συζητήσεων, παρά μέσα από τις ατέλειωτες καταχωρίσεις ταλαίπωρων φοιτητών, ότι τα πρόβατα δεν πετάνε και οι χελώνες δεν τραγουδάνε. Μπορείτε να παίξετε και με τα δύο bot, την Αλίκη και το Jabberwacky, να δείτε τις διαφορές τους.
Αυτή ήταν και μια από τις αρχικές παρατηρήσεις του καθηγητή Dreyfus επίσης: ότι μόνο ένα μωρό ρομπότ θα φτάσει ίσως κάποτε να λειτουργήσει ικανοποιητικά – δηλαδή ένα ρομπότ εφοδιασμένο με ικανότητα μάθησης από πραγματικούς ανθρώπους στον πραγματικό κόσμο. Αν πας όμως να κατασκευάσεις εξαρχής ένα ενήλικο ρομπότ, «σαν την Αθηνά που ξεπετάχτηκε ενήλικη μέσα από το κεφάλι του Δία», θα αποτύχεις.
Ας κάνουμε εδώ ένα διάλειμμα. Θα συνεχίσουμε στην επόμενη ανάρτηση με ακόμα περισσότερο Χάιντεγκερ (ελπίζω να ενδιαφέρουν κάποιους αυτά που γράφω, ε;...). Να πούμε επίσης ότι το τεστ Turing έχει κατακτηθεί, το πέρασε με επιτυχία όχι ένα bot, αλλά ένα βίντεο του Παναγιώτη Ψωμιάδη σε εκπομπή του Γιώργου Αυτιά. Ή, εναλλακτικά, ο Γιώργος Αυτιάς πέρασε με επιτυχία το τεστ Turing και ξεγέλασε το βίντεο του Παναγιώτη Ψωμιάδη. Κάποιο βίντεο που μ’ είδε με θυμήθηκε, και τον πόνο μου ν’ ακούσει δεν αρνήθηκε.
τὸ πνεῦμα ὅπου θέλει πνεῖ καὶ τὴν φωνὴν αὐτοῦ ἀκούεις, ἀλλ’ οὐκ οἶδας πόθεν ἔρχεται καὶ ποῦ ὑπάγει· οὕτως ἐστὶν πᾶς ὁ γεγεννημένος ἐκ τοῦ πνεὐματος.
ΑπάντησηΔιαγραφήΩ! Αυτά θέλουν μελέτη!
ΔιαγραφήΣυνεχισε Ηλια,πολυ ωραια το κειμενο.
ΑπάντησηΔιαγραφήΜερσί, χαίρομαι που σε ενδιαφέρει
ΔιαγραφήΕξαιρετική ανάρτηση, Ηλία!
ΑπάντησηΔιαγραφήΔεν μου γέμισε το μάτι όμως ο Τζαμπερτέτοιος. Είπαμε περίπου τα εξής:
-Where do you live?
-In Athens.
-I live in Iceland.
-Where exactly?
-It's a secret.
-I 'm not gonna tell.
-Why?
-Nobody cares.
-I care. [λάθος κατανόησης;]
-So, I will tell you.
-Do tell. [μπόινγκ!]
-You live in Reykjavík.
-No. I live in Arnold. [πραγματολογικό σφάλμα εδώ, δεν υπάρχει τέτοια πόλη στην Ισλανδία. Νομίζω!]
Τον ξεσκέπασες με το I'm not gonna tell, δεν το συσχέτισε με την παράκληση σε κάποιον να μαρτυρήσει ένα μυστικό, ξέρεις, θα μείνει μεταξύ μας. Δηλαδή, δεν είχε ομιλητές να τον εκπαιδεύσουν ότι, στην ανθρώπινη ζωή, κάποιες πληροφορίες δεν πρέπει να διαδίδονται, ότι άμα θέλεις να αποκτήσεις τη γνώση μιας τέτοιας πληροφορίας θα πρέπει να δηλώσεις ότι δεν θα τη διαδώσεις κ.λπ.
ΔιαγραφήΔεν είναι τέλειος, μπορεί κι αυτός να ξεσκεπαστεί. Πάντως έχει πολύ περισσότερο ενδιαφέρον από την Αλίκη. Οι κατασκευαστές του έχουν δηλώσει (το 2006) ότι το 2015 θα περάσει με επιτυχία το τεστ Turing. Ίδωμεν, αν και προσωπικά τείνω να πιστέψω ότι πάντα θα υπάρχουν στρατηγικές να ξεσκεπάσεις τα bot
Πολύ καλή ανάρτηση. Να προσθέσω τον Τάλο (http://el.wikipedia.org/wiki/%CE%A4%CE%AC%CE%BB%CF%89%CF%82_%28%CE%BC%CF%85%CE%B8%CE%BF%CE%BB%CE%BF%CE%B3%CE%AF%CE%B1%29) το ρομπότ της αρχαιότητας που φύλαγε τα παράλια της Κρήτης. Θα δεις ότι μοιάζει με πολλά από τα ρομπότ που υπάρχουν σε Ιαπωνικές κυρίως σειρές. Παρόμοια φαντασιακά κατασκευάσματα υπάρχουν σε όλους τους πολιτισμούς.
ΑπάντησηΔιαγραφήΕπίσης πολύ καλή κριτική έκανε ο Roger Penrose στο βιβλίο του Shadows of the mind (http://en.wikipedia.org/wiki/Shadows_of_the_Mind) μεταξύ των οποίων υποστηρίζει: ότι ο ανθρώπινος εγκέφαλος δεν μπορεί να μοντελοποιηθεί με μία μηχανή turing εξ'αιτίας του θεωρήματος της μη πληρότητας του Godel (https://en.wikipedia.org/wiki/G%C3%B6del%27s_incompleteness_theorems). Το βιβλίο έκανε μεγάλη εντύπωση οπότε μπορείς να διαβάσεις και έναν αντίλογο (σε πιο ακαδημαϊκή γλώσσα) http://www.sciencedirect.com/science/article/pii/S0004370298000526
Γενικότερα το όραματα της τεχνητής νοημοσύνης δεν πρόκειται να εγκαταλειφθεί ποτέ όσες αποτυχίες και αν έχουμε. Απλά θα αλλάζουμε μόδες (από GOFAI, σε expert systems, σε agents και hybrids, σε biological-inspired AI, ...)
Μερσί. Οι αρχαίοι, όμως, έβλεπαν τα ρομπότ (είτε μυθολογικά είτε πραγματικά) ως μια προσπάθεια κατασκευής θεών, δηλαδή κάτι ανώτερο από τον άνθρωπο. Η σύγχρονη ΑΙ ευελπιστεί να κατασκευάσει ανθρώπους, να αντιγράψει την ανθρώπινη νοημοσύνη, συμπεριφορά, ψυχολογία κ.λπ. με μηχανές. Δεν ξέρω πού ωφείλεται η διαφορά, το γυρνάω αυτές τις μέρες στο μυαλό μου.
ΔιαγραφήΤώρα... ο Penrose είναι μαθηματικός και βλέπει παντού μαθηματικά! Δεν πιστεύω ότι το θεώρημα της μη-πληρότητας έχει εφαρμογές στον άνθρωπο, είναι καθαρά ένα θέμα της θεωρητικής Μαθηματικής Λογικής (αυτής που δεν φέρνει επιδοτήσεις και ευρωπαϊκά συγχρηματοδοτούμενα προγράμματα - σε αντίθεση με την εφαρμοσμένη Μαθηματική Λογική, η οποία ενδεχομένως φέρνει). Η εφαρμογή του θεωρήματος στον άνθρωπο βεβαιώνει έναν θεμελιώδη φορμαλισμό στην όλη φιλοσοφική σύλληψη, ενώ πιστεύω ότι ο άνθρωπος δεν είναι αλγεβρικό ον, δε λειτουργεί με φορμαλισμούς.
Θα τα δω λεπτομερώς από βδομάδα, τώρα είμαι πνιγμένος. Ελπίζω να 'σαι εδώ, να τα ξαναπούμε.