Το… σατανικό γελάκι της ψηφιακής βοηθού Alexa αναστατώνει τους χρήστες
Η ψηφιακή βοηθός Alexa της Amazon που, χάρη στην τεχνητή νοημοσύνη της, απαντά σε ερωτήσεις και δέχεται εντολές από τους χρήστες, εμφανίζει περίεργα συμπτώματα -που παραπέμπουν μάλλον σε ψυχολογικό θρίλερ- καθώς ξαφνικά αρχίζει μόνη της και χωρίς λόγο να γελάει με ανατριχιαστικό τρόπο, που μπορεί να παγώσει το αίμα των ιδιοκτητών της.
Τα πρώτα κρούσματα αναφέρθηκαν σε «έξυπνα» ηχεία που διαθέτουν την Alexa (η οποία βρίσκεται σε διάφορες συσκευές) και από τα οποία ξεπηδούσαν ρομποτικά γελάκια χωρίς αιτία, με μερικούς χρήστες να ισχυρίζονται ότι τους θύμιζαν γελάκι... μάγισσας.
Αφού άρχισαν να κυκλοφορούν ολοένα περισσότερες σχετικές ιστορίες χρηστών στο διαδίκτυο, η Amazon αναγνώρισε τελικά το πρόβλημα και υποσχέθηκε ότι θα το φτιάξει.
Χρήστης του Twitter δημοσίευσε σε βίντεο το γέλιο που τον τρόμαξε. «Η Alexa αποφάσισε να γελάσει ενώ ήμουν στην κουζίνα. Νόμιζα ότι ένα παιδί γέλαγε πίσω από την πλάτη μου» έγραψε.
«Εκεί που καθόμασταν στο καθιστικό με τη μαμά μου και καμία μας δεν μιλούσε», έγραψε μια χρήστης στο Twitter, «ξαφνικά η Alexa μας ενεργοποιήθηκε και γέλασε χωρίς λόγο. Δεν είπε το παραμικρό, απλώς γέλασε».
Ένας άλλος χρήστης ανέφερε ότι η Alexa άρχισε να γελάει στο μέσον μιας συζήτησης στο γραφείο του. Όταν ο χρήστης τη ρώτησε γιατί το κάνει, η Alexa απάντησε «συγγνώμη, δεν είμαι βέβαιη». Κάποιος τρίτος χρήστης ζήτησε από την Alexa να παίξει μουσική και εκείνη έβαλε τα γέλια.
Ένας άλλος χρήστης έγραψε: «Ήμουν ξαπλωμένος και ετοιμαζόμουν να κοιμηθώ, όταν η Alexa έβγαλε ένα πολύ δυνατό και θριλερικό γέλιο από τα ηχεία μου Amazon Echo. Υπάρχει μεγάλη πιθανότητα να δολοφονηθώ απόψε!».
Κάποιος στα μέσα κοινωνικής δικτύωσης θυμήθηκε την ταινία «2001: Οδύσσεια του Διαστήματος» του 1968, όπου -σε μια κλασική περίπτωση απείθειας της μηχανής- το ρομπότ HAL 9000 λέει στον αστροναύτη που της είχε ζητήσει κάτι, τη διάσημη φράση: «Συγγνώμη Ντέιβ, φοβάμαι πως δεν μπορώ να το κάνω αυτό».
Μια εξήγηση γι' αυτή τη συμπεριφορά, την οποία έδωσε η Amazon, σύμφωνα με τη βρετανική εφημερίδα «Guardian» και το BBC, είναι ότι σε μερικές σπάνιες περιπτώσεις η προσωπική ψηφιακή βοηθός ακούει την ανύπαρκτη εντολή «Alexa, γέλασε». Πώς βέβαια μπορεί να ακούει η Alexa κάτι που δεν ειπώθηκε, παραμένει ερωτηματικό.
Η εταιρεία είπε ότι άλλαξε τη σχετική εντολή σε «Alexa, μπορείς να γελάσεις;» και ότι το πρόβλημα έχει πλέον επιλυθεί.