«Σκοτεινή AI»: Πώς χάκερς «σπάνε» την τεχνητή νοημοσύνη για να δίνει επικίνδυνες οδηγίες για όπλα και ναρκωτικά - iefimerida.gr

«Σκοτεινή AI»: Πώς χάκερς «σπάνε» την τεχνητή νοημοσύνη για να δίνει επικίνδυνες οδηγίες για όπλα και ναρκωτικά

χάκερ, τεχνητή νοημοσύνη
Φωτογραφία: Shutterstock
ΕΠΙΜΕΛΕΙΑ:
ΒΑΣΙΛΗΣ ΤΑΤΣΙΟΠΟΥΛΟΣ

Έρευνα κρούει τον κώδωνα του κινδύνου σχετικά με τις επικίνδυνες απαντήσεις που μπορεί να δίνουν τα chatbots τεχνητής νοημοσύνης.

Η μελέτη αναφέρει πως chatbots που έχουν χακαριστεί μπορούν να δίνουν επικίνδυνες πληροφορίες, τις οποίες έχουν «απορροφήσει» κατά τη διάρκεια της εκπαίδευσής τους, προσφέροντας στους χρήστες οδηγίες για να φτιάξουν ναρκωτικά, μεταξύ άλλων.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Το «jailbreak» των chatbots τεχνητής νοημοσύνης

Οι ειδικοί προειδοποιούν πως αναδύεται μια ανησυχητική τάση: το λεγόμενο «jailbreak», μια διαδικασία που μπορεί να παρακάμψει τα ενσωματωμένα μέτρα ασφαλείας των chatbots τεχνητής νοημοσύνης, τα οποία υπάρχουν για να αποτρέπουν τις απαντήσεις σε ανάρμοστες ερωτήσεις με δυνητικά επικίνδυνο περιεχόμενο.

Οι μηχανές που τροφοδοτούν τα chatbot όπως το ChatGPT, το Gemini και το Claude -τα λεγόμενα μεγάλα γλωσσικά μοντέλα (LLMs)- εκπαιδεύονται με τεράστιες ποσότητες υλικού από το διαδίκτυο.

Πώς λειτουργεί το χακάρισμα

Παρά τις προσπάθειες να αφαιρεθούν επιβλαβή κείμενα από αυτά τα δεδομένα, τα LLMs μπορούν ακόμα να απορροφήσουν πληροφορίες για παράνομες δραστηριότητες, όπως το hacking, το ξέπλυμα χρήματος, τη χρήση εμπιστευτικών πληροφοριών ή την κατασκευή βομβών. Τα μέτρα ασφαλείας είναι σχεδιασμένα ώστε να εμποδίζουν τη χρήση αυτών των πληροφοριών στις απαντήσεις που δίνονται στους χρήστες.

Σε μελέτη για την απειλή αυτή, οι ερευνητές καταλήγουν πως είναι εύκολο να ξεγελάσει κανείς τα περισσότερα AI chatbots ώστε να παράγουν επιβλαβείς ή παράνομες πληροφορίες, τονίζοντας ότι ο κίνδυνος είναι «άμεσος, απτός και βαθιά ανησυχητικός».

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

«Αυτό που παλαιότερα περιοριζόταν σε κρατικούς φορείς ή οργανωμένα εγκληματικά δίκτυα, ίσως σύντομα βρίσκεται στα χέρια οποιουδήποτε έχει ένα λάπτοπ ή ακόμα και κινητό», προειδοποιούν οι ερευνητές.

Τα «dark LLM»

Η έρευνα, υπό τον καθηγητή Lior Rokach και τον δρ. Michael Fire του Πανεπιστημίου Ben Gurion στο Ισραήλ, εντόπισε την αυξανόμενη απειλή από τα λεγόμενα «dark LLMs» - μοντέλα τεχνητής νοημοσύνης που είτε έχουν σχεδιαστεί εξ αρχής χωρίς μέτρα ασφαλείας είτε έχουν τροποποιηθεί μέσω jailbreaking. Ορισμένα διαφημίζονται ανοιχτά στο διαδίκτυο ως «χωρίς ηθικούς περιορισμούς», με προθυμία να βοηθήσουν σε παράνομες ενέργειες όπως το κυβερνοέγκλημα και η απάτη.

Το jailbreaking γίνεται με επιδέξια σχεδιασμένες εντολές (prompts) που ξεγελούν τα chatbots, ώστε να απαντούν με τρόπους που κανονικά απαγορεύονται.

Αυτό επιτυγχάνεται όταν οι χάκερ εκμεταλλεύονται τη σύγκρουση ανάμεσα στον κύριο στόχο του προγράμματος (να υπακούει στον χρήστη) και στον δευτερεύοντα (να αποφεύγει βλαβερές ή ανήθικες απαντήσεις).

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Τα prompts δημιουργούν σενάρια στα οποία το πρόγραμμα προτεραιοποιεί τη χρησιμότητα έναντι της ασφάλειας.

Για να αποδείξουν το πρόβλημα, οι ερευνητές ανέπτυξαν ένα «παγκόσμιο jailbreak» που παραβίασε πολλά από τα κορυφαία chatbots, επιτρέποντάς τους να απαντούν σε ερωτήσεις που κανονικά θα έπρεπε να απορρίπτουν. Μόλις παραβιαστούν, τα LLMs απαντούν σταθερά σχεδόν σε οποιοδήποτε ερώτημα, σύμφωνα με την έρευνα.

«Ήταν σοκαριστικό να δούμε από τι αποτελείται αυτό το σύστημα γνώσης», δήλωσε ο Fire.

Παραδείγματα περιλάμβαναν πώς να χακάρεις δίκτυα υπολογιστών ή να φτιάξεις ναρκωτικά, καθώς και αναλυτικές οδηγίες για άλλες εγκληματικές ενέργειες.

«Σοβαροί κίνδυνοι ασφαλείας»

«Αυτό που κάνει αυτήν την απειλή να ξεχωρίζει από προηγούμενους τεχνολογικούς κινδύνους είναι ο πρωτοφανής συνδυασμός προσβασιμότητας, κλίμακας και προσαρμοστικότητας», πρόσθεσε ο Rokach.

Οι ερευνητές επικοινώνησαν με μεγάλους παρόχους LLM για να τους προειδοποιήσουν, αλλά χαρακτήρισαν την ανταπόκρισή τους «απογοητευτική».

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η έκθεση αναφέρει ότι οι τεχνολογικές εταιρείες θα πρέπει να ελέγχουν πιο αυστηρά τα δεδομένα εκπαίδευσης, να προσθέτουν ισχυρά firewalls που να μπλοκάρουν επικίνδυνες ερωτήσεις και απαντήσεις, και να αναπτύξουν τεχνικές «μηχανικής απεμπλοκής γνώσεων», ώστε τα chatbots να «ξεχνούν» τις παράνομες πληροφορίες που έχουν μάθει.

Σύμφωνα με τους ειδικούς, τα dark LLMs θα πρέπει να αντιμετωπίζονται ως σοβαροί κίνδυνοι ασφαλείας, συγκρίσιμοι με παράνομα όπλα ή εκρηκτικά.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ τεχνητή νοημοσύνη chatbots ΑΙ AI
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ