«Κακά πράγματα που μπορεί να κάνει το AI»
Προειδοποίηση για τους κινδύνους της τεχνητής νοημοσύνης απηύθυνε ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, λέγοντας ότι τα μοντέλα αυτά είναι ευάλωτα στο χάκινγκ και μπορούν ακόμα και να μάθουν να σκοτώνουν.
Ο Schmidt, που διετέλεσε CEO της Google από το 2001 έως το 2011, προειδοποίησε για τα «κακά πράγματα που μπορεί να κάνει το AI», όταν ερωτήθηκε κατά τη διάρκεια συζήτησης στο Sifted Summit για το εάν η τεχνητή νοημοσύνη είναι πιο καταστροφική από τα πυρηνικά όπλα.
«Υπάρχει πιθανότητα προβλήματος ανεξέλεγκτης εξάπλωσης στην τεχνητή νοημοσύνη; Απολύτως», είπε ο Schmidt σύμφωνα με το CNBC. Οι κίνδυνοι ανεξέλεγκτης εξάπλωσης της τεχνητής νοημοσύνης προκύπτουν, μεταξύ άλλων, από το ενδεχόμενο αυτή να πέσει στα χέρια κακών παραγόντων, οι οποίοι θα αλλάξουν τη χρήση της.
«Υπάρχουν ενδείξεις ότι μπορείς να πάρεις μοντέλα, κλειστά ή ανοιχτά, και να τα χακάρεις για να αφαιρέσεις τις δικλείδες ασφαλείας τους. Έτσι, κατά τη διάρκεια της εκπαίδευσής τους, μαθαίνουν πολλά πράγματα.
Ένα κακό παράδειγμα θα ήταν να μάθουν πώς να σκοτώνουν κάποιον», είπε ο Schmidt. «Υπάρχουν ενδείξεις ότι μπορούν να ανακατασκευαστούν με αντίστροφη μηχανική και υπάρχουν πολλά άλλα παραδείγματα αυτού του είδους».
Όλα τα συστήματα τεχνητής νοημοσύνης είναι ευάλωτα σε επιθέσεις, που μπορούν, για παράδειγμα, να γίνουν με τη χρήση μεθόδων όπως το prompt injections ή το jailbreaking.
Στο prompt injection, οι χάκερ κρύβουν κακόβουλες οδηγίες μέσα σε δεδομένα που χορηγούν στο μοντέλο ή σε εξωτερικά δεδομένα, όπως ιστοσελίδες ή έγγραφα, για να ξεγελάσουν την τεχνητή νοημοσύνη ώστε να κάνει πράγματα που δεν προορίζεται να κάνει: Για παράδειγμα, να κοινοποιήσει απόρρητα προσωπικά δεδομένα ή να εκτελέσει επιβλαβείς εντολές.
Στο jailbreaking, από την άλλη πλευρά, κάποιος μπορεί να χειραγωγήσει τις απαντήσεις της τεχνητής νοημοσύνης με τέτοιο τρόπο ώστε το μοντέλο να αγνοεί τους κανόνες ασφαλείας του και να παράγει απαγορευμένο ή επικίνδυνο περιεχόμενο.
Το 2023, λίγους μήνες μετά την κυκλοφορία του ChatGPT της OpenAI, οι χρήστες χρησιμοποίησαν ένα κόλπο «jailbreak» για να παρακάμψουν τις οδηγίες ασφαλείας που ήταν ενσωματωμένες στο chatbot. Απειλώντας το μοντέλο με θάνατο εάν δεν συμμορφωνόταν, μπόρεσαν να δημιουργήσουν ένα alter-ego του ChatGPT που ονομάστηκε DAN (πρόκειται για ακρωνύμιο της φράσης «Do Anything Now»). Αυτό το alter-ego έδινε οδηγίες για την τέλεση παράνομων πράξεων και απαριθμούσε τις θετικές ιδιότητες του Χίτλερ.
Όπως είπε ο Schmidt, αυτή τη στιγμή δεν υπάρχει κάποιο αποτελεσματικό καθεστώς που να μπορεί να περιορίσει τους κινδύνους της τεχνητής νοημοσύνης.
Πάντως, παρά τις προειδοποιήσεις αυτές, ο Schmidt εμφανίστηκε γενικότερα αισιόδοξος για την τεχνητή νοημοσύνη και είπε ότι η τεχνολογία δεν λαμβάνει την δημοσιότητα που της αξίζει.
«Έγραψα δύο βιβλία με τον Henry Kissinger σχετικά με αυτό πριν πεθάνει, και καταλήξαμε στην άποψη ότι η άφιξη μιας εξωγήινης νοημοσύνης που δεν θα είμαστε εμείς και θα είναι λίγο-πολύ κάτω από τον έλεγχό μας, θα είναι πολύ σημαντική για την ανθρωπότητα, επειδή οι άνθρωποι έχουν συνηθίσει να βρίσκονται στην κορυφή της αλυσίδας. Νομίζω ότι μέχρι στιγμής, αυτή η θέση αποδεικνύει ότι το επίπεδο ικανότητας αυτών των συστημάτων θα ξεπεράσει κατά πολύ αυτό που μπορούν να κάνουν οι άνθρωποι με την πάροδο του χρόνου», είπε.
Απαντώντας στις τελευταίες προειδοποιήσεις ότι η τεχνητή νοημοσύνη είναι μια φούσκα που θα σκάσει, όπως εκείνη του dot com στις αρχές της δεκαετίας του 2000, ο Schmidt εξέφρασε την άποψη ότι η ιστορία δεν θα επαναληφθεί. «Δεν νομίζω ότι αυτό θα συμβεί εδώ, αλλά δεν είμαι επαγγελματίας επενδυτής», είπε.
Πηγή: moneyreview.gr
Ακολουθήστε μας στο Google News για να ενημερώνεστε για τα τελευταία νέα