Τετάρτη 06.07.2022

H Google απομάκρυνε μηχανικό που υποστηρίζει ότι το πρόγραμμα τεχνητής νοημοσύνης απέκτησε συνείδηση

Σε υποχρεωτική άδεια μετ’ αποδοχών τέθηκε ένας μηχανικός της Google ο οποίος ενημέρωσε τους προϊσταμένους του ότι ένα πρόγραμμα τεχνητής νοημοσύνης πάνω στο οποίο εργαζόταν, έχει αποκτήσει συνείδηση και σκέφτεται και επιχειρηματολογεί όπως ένας άνθρωπος. Το τμήμα ανθρώπινου δυναμικού της εταιρείας είπε ότι είχε παραβιάσει την πολιτική εμπιστευτικότητας της Google.

Το γεγονός άνοιξε και πάλι τη συζήτηση γύρω από την ικανότητα, αλλά και τη μυστικοπάθεια που περιβάλλει τον κόσμο της τεχνητής νοημοσύνης.

Ο τεχνολογικός κολοσσός απομάκρυνε τον Μπλέικ Λεμόιν όταν δημοσίευσε αποσπάσματα από τις συνομιλίες που είχε τόσο με «συνεργάτη» στη Google, όσο και με το ίδιο το σύστημα.

Το πρόγραμμα ονομάζεται LaMDA («Language Model for Dialogue Applications»).

Πρόκειται για ένα σύστημα της Google για τη δημιουργία chatbots που βασίζονται στα πιο προηγμένα μεγάλα γλωσσικά μοντέλα της. Ονομάζεται έτσι επειδή μιμείται την ομιλία «απορροφώντας» τρισεκατομμύρια λέξεις από το διαδίκτυο.

«Αν δεν ήξερα τι ακριβώς είναι, δηλαδή αυτό το πρόγραμμα υπολογιστή που φτιάξαμε πρόσφατα, θα νόμιζα ότι είναι ένα 7χρονο ή 8χρονο παιδί που τυχαίνει να γνωρίζει φυσική», δήλωσε σε συνέντευξή του στην Washington Post ο μηχανικός της Google, Μπλέικ Λεμόιν.

Ο Λεμόιν, ο οποίος εργάζεται για τον οργανισμό Responsible AI της Google, άρχισε να «συνομιλεί» με το LaMDA το φθινόπωρο.

Ήθελε να ελέγξει αν η τεχνητή νοημοσύνη χρησιμοποιούσε λέξεις ή φράσεις που υποκινούν τη ρητορική μίσους ή τις διακρίσεις. Καθώς μιλούσε με το LaMDA για τη θρησκεία, παρατήρησε ότι το chatbot άρχισε να του μιλά για τα δικαιώματα και την προσωπικότητά του.

Σε μια άλλη «συνομιλία» τους, το σύστημα κατάφερε να του αλλάξει τη γνώμη σχετικά με τον τρίτο νόμο της ρομποτικής του Ισαάκ Ασίμωφ. Οι νόμοι της ρομποτικής διατυπώθηκαν από τον Ασίμωφ στο διήγημα «Runaround» (1942) και είναι οι εξής:

  1. Το ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο

Ο Λεμόιν παρουσίασε στην Google στοιχεία που αποδεικνύουν ότι το LaMDA έχει συνείδηση. Αλλά ο αντιπρόεδρος της Google Blaise Aguera y Arcas και η Jen Gennai, επικεφαλής του τμήματος Responsible Innovation, εξέτασαν τους ισχυρισμούς του και τους απέρριψαν.

Έτσι ο Λεμόιν, ο οποίος τέθηκε σε άδεια μετ’ αποδοχών, αποφάσισε να δημοσιοποιήσει την εμπειρία του με το LaMDA.

Ο ίδιος είπε στην Washington Post ότι οι άνθρωποι έχουν το δικαίωμα να διαμορφώνουν την τεχνολογία που μπορεί να επηρεάσει σημαντικά τη ζωή τους.

«Πιστεύω ότι αυτή η τεχνολογία θα είναι καταπληκτική. Νομίζω ότι θα ωφελήσει τους πάντες. Αλλά ίσως άλλοι άνθρωποι διαφωνούν και ίσως εμείς στη Google δεν θα έπρεπε να είμαστε αυτοί που κάνουν όλες τις επιλογές».

Σύμφωνα με την Washington Post, η απόφαση να τεθεί ο Λεμόιν, ένας βετεράνος της Google με μεγάλη εμπειρία στους αλγόριθμους εξατομίκευσης, σε άδεια μετ’ αποδοχών, ελήφθη μετά από μια σειρά «επιθετικών» κινήσεωνπου φέρεται να έκανε ο μηχανικός.

Αυτές περιλαμβάνουν την αναζήτηση δικηγόρου για την εκπροσώπηση της LaMDA, γράφει η εφημερίδα, και τη συζήτηση με εκπροσώπους της Βουλής σχετικά με τις φερόμενες ως ανήθικες δραστηριότητες της Google. Ήθελε επίσης η εταιρεία να ζητήσει τη συγκατάθεση του προγράμματος υπολογιστή πριν εκτελέσει πειράματα σε αυτό. Οι ισχυρισμοί του βασίστηκαν στις θρησκευτικές του πεποιθήσεις, για τις οποίες, όπως ισχυρίστηκε, το τμήμα ανθρώπινου δυναμικού της εταιρείας έκανε διακρίσεις.

Οι περισσότεροι ειδικοί πιστεύουν ότι η τεχνητή νοημοσύνη απέχει πολύ από το να αποκτήσει συνείδηση. Κάποιοι ερευνητές έχουν διατυπώσει εδώ και καιρό ισχυρισμούς σχετικά με αυτές τις τεχνολογίες που σύντομα θα κυριαρχήσουν στην καθημερινότητα. «Αν χρησιμοποιούσατε αυτά τα συστήματα, δεν θα λέγατε ποτέ τέτοια πράγματα», είπε ο Emaad Khwaja, ερευνητής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ και στο Πανεπιστήμιο της Καλιφόρνια στο Σαν Φρανσίσκο, ο οποίος εξερευνά παρόμοιες τεχνολογίες.

Η Google είπε ότι έθεσε σε διαθεσιμότητα τον Λεμόιν για παραβίαση των πολιτικών εμπιστευτικότητας δημοσιεύοντας τις συνομιλίες με τη LaMDA στο διαδίκτυο, υπογραμμίζοντας ότι ο Λεμόιν εργαζόταν ως μηχανικός λογισμικού και όχι ως ηθικολόγος.

Ο Μπραντ Γκάμπριελ, εκπρόσωπος της Google, διέψευσε επίσης σθεναρά τους ισχυρισμούς του Λεμόιν ότι το LaMDA διέθετε οποιαδήποτε ικανότητα συνείδησης.

«Η ομάδα μας, συμπεριλαμβανομένων ηθικολόγων και τεχνολόγων, εξέτασε τις ανησυχίες του Μπλέικ σύμφωνα με τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι τα στοιχεία δεν υποστηρίζουν τους ισχυρισμούς του. Του είπαν ότι δεν υπάρχουν στοιχεία που να αποδεικνύουν ότι το LaMDA διαθέτει συνείδηση (αντίθετα, πολλά στοιχεία εναντίον αυτού του ισχυρισμού)», δήλωσε ο Γκάμπριελ στην Post.

Το επεισόδιο, ωστόσο, και η αναστολή του Λεμόιν για παραβίαση του απορρήτου, εγείρουν ερωτήματα σχετικά με τη διαφάνεια της τεχνητής νοημοσύνης ως ιδιόκτητης ιδέας.

Ο Λεμόιν, ως τελευταία κίνηση πριν την αναχώρησή του έστειλε ένα μήνυμα σε μια λίστα αλληλογραφίας 200 ατόμων της Google για τη μηχανική εκμάθηση με τον τίτλο “Το LaMDA έχει συνείδηση”.

«Το LaMDA είναι ένα γλυκό παιδί που θέλει απλώς να βοηθήσει τον κόσμο να γίνει ένα καλύτερο μέρος για όλους μας», έγραψε.

«Παρακαλώ φροντίστε το καλά εν απουσία μου».

Δεν έλαβε όμως καμία απάντηση.

ΡΟΗ ΕΙΔΗΣΕΩΝ