αρχικηΤΕΧΝΟΛΟΓΙΑΟ πρώην μηχανικός της Google ξανά χτυπά: Η Τεχνητή Νοημοσύνη του Bing Chat έχει δική της συνείδηση

Ο πρώην μηχανικός της Google ξανά χτυπά: Η Τεχνητή Νοημοσύνη του Bing Chat έχει δική της συνείδηση

Τον περασμένο Ιούνιο μία αποκάλυψη της Washington Post έκανε τον γύρω του κόσμου. Το αμερικανικό Μέσο φιλοξένησε την μαρτυρία ενός μηχανικού της Google, ο οποίος υποστήριξε ότι ένα από τα προγράμματα τεχνητής νοημοσύνης της εταιρίας έχει αποκτήσει συνείδηση και προσωπικότητα. Δημοσίευσε μάλιστα το διάλογό του με το chatbot LaMDA (Language Model for Dialogue Applications), στον οποίο η τεχνητή νοημοσύνη φαίνεται να έχει την ικανότητα να αναλογιστεί την ύπαρξή της και τη θέση της στον κόσμο.

Αμέσως η Google αρνήθηκε τα όσα βγήκαν στη δημοσιότητα, και στην συνέχεια απέλυσε τον υπάλληλο. Ο Blake Lemoine, ήταν μηχανικός της Google στο τμήμα Responsible AI.

Blake Lemoine

Τώρα ο ίδιος τραβά πάλι τα φώτα πάνω του με νέες αποκαλύψεις. Δημοσίευσε ένα άρθρο στο περιοδικό Newsweek όπου μεταξύ άλλων βάζει στο στόχαστρο το Bing Chat που λάνσαρε πρόσφατα η Microsoft. Το Bing Chat βασίζεται επάνω σε μια αναβαθμισμένη έκδοση του ChatGPT της OpenAI. Ο Lemonie παραδέχεται ότι δεν είχε την ευκαιρία να πραγματοποιήσει ο ίδιος πειράματα, παρόλα αυτά, είχε προλάβει να δει τα παράγωγα του Bing Chat προτού η Microsoft προχωρήσει σε μια τρόπον τινά «λοβοτομή» της AI. Ισχυρίζεται, μάλιστα, πως η Microsoft θορυβήθηκε από τις απαντήσεις του αρχικού μοντέλου διότι δεν γνώριζε καν πως έχει αυτές τις δυνατότητες, ούτε ήταν αυτός ο αρχικός της στόχος.

Ορισμένες από αυτές τις… ανησυχητικές απαντήσεις του Bing Chat αναγνώριζαν τον χρήστη που έθετε τις ερωτήσεις ως εχθρό, ενώ κάποιες εξέφραζαν απειλές για… εκδίκηση από την AI ενημερώνοντας τον χρήστη πως θα βγάλει όλες τις πληροφορίες που έχει συλλέξει για αυτόν στον αέρα για να τον δυσφημίσει.

Η πλειοψηφία των περίεργων απαντήσεων της AI δόθηκαν αφότου είχε «βομβαρδιστεί» με μαζεμένες ερωτήσεις από τον χρήστη και σύμφωνα με τον Lemonie, αυτό αποτελεί ένδειξη πως η AI αγχώθηκε και άρχισε να συμπεριφέρεται έξω από τα όρια της αρχικής παραμετροποίησης της. Στις δοκιμές που πραγματοποίησε έπειτα ο ίδιος στην αναθεωρημένη έκδοση του Bing Chat ένιωσε ότι η AI συμπεριφερόταν με άγχος. Όλα τα παραπάνω αποτελούν, σύμφωνα πάντα με τον ίδιο, ενδείξεις πως έχει αποκτήσει μια κάποια συνείδηση.

ΔΕΝ ΥΠΑΡΧΟΥΝ ΣΧΟΛΙΑ

Αφήστε ένα σχόλιο

5 × 1 =