ΚΟΣΜΟΣ

Τεχνητή Νοημοσύνη: Νέα έκθεση προειδοποιεί για «απειλή επιπέδου εξαφάνισης του ανθρώπινου είδους»

Τεχνητή Νοημοσύνη: Νέα έκθεση προειδοποιεί για «απειλή επιπέδου εξαφάνισης του ανθρώπινου είδους»
Freepik

Μια νέα έκθεση, ανάθεση του υπουργείου Εξωτερικών των ΗΠΑ, παρουσιάζει μια ανησυχητική εικόνα των «καταστροφικών κινδύνων για την εθνική ασφάλεια» που εγκυμονεί η ταχέως εξελισσόμενη τεχνητή νοημοσύνη, προειδοποιώντας ότι ο χρόνος τελειώνει για την ομοσπονδιακή κυβέρνηση προκειμένου να αποτρέψει την καταστροφή.

Τα ευρήματα βασίστηκαν σε συνεντεύξεις με περισσότερους από 200 ανθρώπους σε διάστημα μεγαλύτερο του ενός έτους – συμπεριλαμβανομένων κορυφαίων στελεχών μεγάλων εταιρειών τεχνητής νοημοσύνης, ερευνητών κυβερνοασφάλειας, εμπειρογνωμόνων σε θέματα όπλων μαζικής καταστροφής και αξιωματούχων εθνικής ασφάλειας εντός της κυβέρνησης.

Η έκθεση, η οποία δημοσιεύθηκε αυτή την εβδομάδα από την συμβουλευτική εταιρεία Gladstone AI, δηλώνει ευθέως ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».

Οι δύο βασικότεροι κίνδυνοι

Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που θέτει σε γενικές γραμμές η τεχνητή νοημοσύνη. Πρώτον, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα για να προκαλέσουν δυνητικά μη αναστρέψιμες ζημιές. Δεύτερον, σύμφωνα με την έκθεση, υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».

«Η άνοδος της τεχνητής νοημοσύνης (ΑΙ) και της γενικής τεχνητής νοημοσύνης (artificial general intellicence ή AGI) έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την εισαγωγή των πυρηνικών όπλων», αναφέρει η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών τεχνητής νοημοσύνης», συγκρούσεων και «θανατηφόρων ατυχημάτων κλίμακας ΟΜΚ» (όπλων μαζικής καταστροφής).

«Υπάρχει σαφής και επείγουσα ανάγκη να παρέμβει η κυβέρνηση των ΗΠΑ», τονίζουν οι συντάκτες στην έκθεση, αναφέροντας μέτρα όπως τη δρομολόγηση μιας νέας υπηρεσίας αποκλειστικά για την τεχνητή νοημοσύνη και την επιβολή ρυθμιστικών εγγυήσεων και περιορισμών στην ισχύ των υπολογιστών που μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων AI.

Ανησυχίες για την ασφάλεια

Η Gladstone AI μίλησε με τεχνικές και ηγετικές ομάδες από την OpenAI, την DeepMind της Google, τη Meta και την Anthropic.

«Στην πορεία, μάθαμε μερικά απογοητευτικά πράγματα», δήλωσε ο διευθύνων σύμβουλος και συνιδρυτής της, Jeremie Harris, σε βίντεο της Gladstone AI που αναρτήθηκε μαζί με την ανακοίνωση της έκθεσης. «Στο παρασκήνιο, η κατάσταση ασφάλειας και προστασίας στην προηγμένη τεχνητή νοημοσύνη φαίνεται αρκετά ανεπαρκής σε σχέση με τους κινδύνους για την εθνική ασφάλεια που μπορεί να εισάγει το AI αρκετά σύντομα».

Η έκθεση της Gladstone AI αναφέρει ότι οι ανταγωνιστικές πιέσεις ωθούν τις εταιρείες να επιταχύνουν την ανάπτυξη της τεχνητής νοημοσύνης «εις βάρος της ασφάλειας και της προστασίας», αυξάνοντας την προοπτική ότι τα πιο προηγμένα συστήματα AI θα μπορούσαν να κλαπούν και χρησιμοποιηθούν ως όπλα εναντίον των ΗΠΑ.

Η εταιρεία αναφέρει στην έκθεση μερικά από τα εξέχοντα πρόσωπα που έχουν προειδοποιήσει για τους υπαρξιακούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, όπως ο Ίλον Μασκ, η πρόεδρος της Ομοσπονδιακής Επιτροπής Εμπορίου Λίνα Καν και ένα πρώην κορυφαίο στέλεχος της OpenAI.

Ορισμένοι εργαζόμενοι σε εταιρείες τεχνητής νοημοσύνης μοιράζονται παρόμοιες ανησυχίες κατ' ιδίαν. «Ένα άτομο σε γνωστό εργαστήριο AI εξέφρασε την άποψη ότι, εάν ένα συγκεκριμένο μοντέλο AI επόμενης γενιάς κυκλοφορούσε ποτέ ως ανοικτής πρόσβασης, αυτό θα ήταν "τρομερά κακό", επειδή οι πιθανές πειστικές ικανότητες του μοντέλου θα μπορούσαν να "διαλύσουν τη δημοκρατία", εάν ποτέ αξιοποιούνταν σε τομείς όπως η παρέμβαση στις εκλογές ή η χειραγώγηση των ψηφοφόρων».

Η άγνωστη απειλή της AGI

H γενική τεχνητή νοημοσύνη (AGI) είναι μια υποθετική μορφή τεχνητής νοημοσύνης με ανθρώπινη ή ακόμη και υπεράνθρωπη ικανότητα μάθησης. Στην έκθεση αναφέρεται ως «ο πρωταρχικός παράγοντας καταστροφικού κινδύνου από την απώλεια ελέγχου» και σημειώνει ότι η OpenAI, η Google DeepMind, η Anthropic και η Nvidia έχουν δηλώσει δημοσίως ότι η AGI θα μπορούσε να επιτευχθεί μέχρι το 2028 – αν και άλλοι πιστεύουν ότι είναι πολύ, πολύ πιο μακριά.

Η έκθεση προειδοποιεί ότι η ανάπτυξη της AGI και δυνατοτήτων που προσεγγίζουν εκείνες της AGI «θα εισάγει καταστροφικούς κινδύνους που δεν έχουν αντιμετωπίσει ποτέ οι Ηνωμένες Πολιτείες, κινδύνους επιπέδου όπλων μαζικής καταστροφής».

Freepik.jpg

«Οι ερευνητές αναμένουν ότι τα προηγμένα συστήματα τεχνητής νοημοσύνης θα ενεργούν έτσι ώστε να μην μπορούν να απενεργοποιηθούν», προειδοποιεί η έκθεση της Gladstone AI

Freepik

Ως παράδειγμα, η έκθεση αναφέρει ότι τα συστήματα AGI θα μπορούσαν να χρησιμοποιηθούν για τον σχεδιασμό και την υλοποίηση «κυβερνοεπιθέσεων υψηλού αντίκτυπου, ικανών να παραλύσουν κρίσιμες υποδομές. Μια απλή προφορική ή πληκτρολογημένη εντολή όπως, "Εκτέλεσε μια μη ανιχνεύσιμη κυβερνοεπίθεση για να καταστρέψεις το ηλεκτρικό δίκτυο της Βόρειας Αμερικής", θα μπορούσε να έχει ως αποτέλεσμα μια καταστροφικά αποτελεσματική αντίδραση», αναφέρει η έκθεση.

Άλλα παραδείγματα, για τα οποία ανησυχούν οι συντάκτες περιλαμβάνουν «μαζικά κλιμακούμενες εκστρατείες παραπληροφόρησης» που τροφοδοτούνται από την τεχνητή νοημοσύνη και οι οποίες αποσταθεροποιούν την κοινωνία και διαβρώνουν την εμπιστοσύνη στους θεσμούς, οπλοποιημένες ρομποτικές εφαρμογές (όπως επιθέσεις με σμήνη drones), ψυχολογική χειραγώγηση, οπλοποιημένες βιολογικές και υλικές επιστήμες, και συστήματα AI που επιδιώκουν την εξουσία, τα οποία είναι αδύνατον να ελεγχθούν και είναι εχθρικά προς τον άνθρωπο.

«Οι ερευνητές αναμένουν ότι τα προηγμένα συστήματα τεχνητής νοημοσύνης θα ενεργούν έτσι ώστε να μην μπορούν να απενεργοποιηθούν», αναφέρει η έκθεση, «διότι αν ένα σύστημα τεχνητής νοημοσύνης απενεργοποιηθεί, δεν μπορεί να εργαστεί για να επιτύχει τον στόχο του».

Με πληροφορίες από: AI could pose ‘extinction-level’ threat to humans and the US must intervene, State Dept.-commissioned report warns by Matt Egan, CNN