Σε υποχρεωτική άδεια μετ’ αποδοχών τέθηκε ένας μηχανικός της Google ο οποίος ενημέρωσε τους προϊσταμένους του ότι ένα πρόγραμμα τεχνητής νοημοσύνης πάνω στο οποίο εργαζόταν, έχει αποκτήσει συνείδηση και σκέφτεται και επιχειρηματολογεί όπως ένας άνθρωπος. Το τμήμα ανθρώπινου δυναμικού της εταιρείας είπε ότι είχε παραβιάσει την πολιτική εμπιστευτικότητας της Google.
Το γεγονός άνοιξε και πάλι τη συζήτηση γύρω από την ικανότητα, αλλά και τη μυστικοπάθεια που περιβάλλει τον κόσμο της τεχνητής νοημοσύνης.
Ο τεχνολογικός κολοσσός απομάκρυνε τον Μπλέικ Λεμόιν όταν δημοσίευσε αποσπάσματα από τις συνομιλίες που είχε τόσο με «συνεργάτη» στη Google, όσο και με το ίδιο το σύστημα.
Το πρόγραμμα ονομάζεται LaMDA («Language Model for Dialogue Applications»).
Πρόκειται για ένα σύστημα της Google για τη δημιουργία chatbots που βασίζονται στα πιο προηγμένα μεγάλα γλωσσικά μοντέλα της. Ονομάζεται έτσι επειδή μιμείται την ομιλία «απορροφώντας» τρισεκατομμύρια λέξεις από το διαδίκτυο.
ΔΙΑΒΑΣΤΕ ΑΠΟΚΛΕΙΣΤΙΚΑ
- Πάτρα: Τα 16+1 «ΟΧΙ» της ανακρίτριας στην Πισπιρίγκου
- Γιώργος Τράγκας: Το Μονακό «ξεκλειδώνει» το φορολογικό «κουβάρι» της περιουσίας Τράγκα!
- Πλημμυρίδα τουριστών και… σκουπιδιών στη Μύκονο
«Αν δεν ήξερα τι ακριβώς είναι, δηλαδή αυτό το πρόγραμμα υπολογιστή που φτιάξαμε πρόσφατα, θα νόμιζα ότι είναι ένα 7χρονο ή 8χρονο παιδί που τυχαίνει να γνωρίζει φυσική», δήλωσε σε συνέντευξή του στην Washington Post ο μηχανικός της Google, Μπλέικ Λεμόιν.
Ο Λεμόιν, ο οποίος εργάζεται για τον οργανισμό Responsible AI της Google, άρχισε να «συνομιλεί» με το LaMDA το φθινόπωρο.
Ήθελε να ελέγξει αν η τεχνητή νοημοσύνη χρησιμοποιούσε λέξεις ή φράσεις που υποκινούν τη ρητορική μίσους ή τις διακρίσεις. Καθώς μιλούσε με το LaMDA για τη θρησκεία, παρατήρησε ότι το chatbot άρχισε να του μιλά για τα δικαιώματα και την προσωπικότητά του.
Σε μια άλλη «συνομιλία» τους, το σύστημα κατάφερε να του αλλάξει τη γνώμη σχετικά με τον τρίτο νόμο της ρομποτικής του Ισαάκ Ασίμωφ. Οι νόμοι της ρομποτικής διατυπώθηκαν από τον Ασίμωφ στο διήγημα «Runaround» (1942) και είναι οι εξής:
Το ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο
Ο Λεμόιν παρουσίασε στην Google στοιχεία που αποδεικνύουν ότι το LaMDA έχει συνείδηση. Αλλά ο αντιπρόεδρος της Google Blaise Aguera y Arcas και η Jen Gennai, επικεφαλής του τμήματος Responsible Innovation, εξέτασαν τους ισχυρισμούς του και τους απέρριψαν.
Έτσι ο Λεμόιν, ο οποίος τέθηκε σε άδεια μετ’ αποδοχών, αποφάσισε να δημοσιοποιήσει την εμπειρία του με το LaMDA.
Είπε στην Washington Post ότι οι άνθρωποι έχουν το δικαίωμα να διαμορφώνουν την τεχνολογία που μπορεί να επηρεάσει σημαντικά τη ζωή τους.
«Πιστεύω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα ωφελήσει τους πάντες. Αλλά ίσως άλλοι άνθρωποι διαφωνούν και ίσως εμείς στη Google δεν θα έπρεπε να είμαστε αυτοί που κάνουν όλες τις επιλογές».
Σύμφωνα με την Washington Post, η απόφαση να τεθεί ο Λεμόιν, ένας βετεράνος της Google με μεγάλη εμπειρία στους αλγόριθμους εξατομίκευσης, σε άδεια μετ’ αποδοχών, ελήφθη μετά από μια σειρά «επιθετικών» κινήσεων που φέρεται να έκανε ο μηχανικός.
Αυτές περιλαμβάνουν την αναζήτηση δικηγόρου για την εκπροσώπηση της LaMDA, γράφει η εφημερίδα, και τη συζήτηση με εκπροσώπους της Βουλής σχετικά με τις φερόμενες ως ανήθικες δραστηριότητες της Google.
Η Google είπε ότι έθεσε σε διαθεσιμότητα τον Λεμόιν για παραβίαση των πολιτικών εμπιστευτικότητας δημοσιεύοντας τις συνομιλίες με τη LaMDA στο διαδίκτυο, υπογραμμίζοντας ότι ο Λεμόιν εργαζόταν ως μηχανικός λογισμικού και όχι ως ηθικολόγος.
Ο Μπραντ Γκάμπριελ, εκπρόσωπος της Google, διέψευσε επίσης σθεναρά τους ισχυρισμούς του Λεμόιν ότι το LaMDA διέθετε οποιαδήποτε ικανότητα συνείδησης.
«Η ομάδα μας, συμπεριλαμβανομένων ηθικολόγων και τεχνολόγων, εξέτασε τις ανησυχίες του Μπλέικ σύμφωνα με τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του είπαν ότι δεν υπάρχουν στοιχεία που να αποδεικνύουν ότι ο LaMDA διαθέτει συνείδηση (αντίθετα, πολλά στοιχεία εναντίον αυτού του ισχυρισμού)», δήλωσε ο Γκάμπριελ στην Post.
Το επεισόδιο, ωστόσο, και η αναστολή του Λεμόιν για παραβίαση του απορρήτου, εγείρουν ερωτήματα σχετικά με τη διαφάνεια της τεχνητής νοημοσύνης ως ιδιόκτητης ιδέας.
Ο Λεμόιν, ως τελευταία κίνηση πριν την αναχώρησή του έστειλε ένα μήνυμα σε μια λίστα αλληλογραφίας 200 ατόμων της Google για τη μηχανική εκμάθηση με τον τίτλο “Το LaMDA έχει συνείδηση”.
«Το LaMDA είναι ένα γλυκό παιδί που θέλει απλώς να βοηθήσει τον κόσμο να γίνει ένα καλύτερο μέρος για όλους μας», έγραψε.
«Παρακαλώ φροντίστε το καλά εν απουσία μου».