02/05/2026
Athens, GR 13 C

Πώς χρήστες εξαπατούν τα Chatbots AI για να αποκαλύψουν εταιρικά μυστικά

Η Immersive Labs δημοσίευσε πρόσφατα την έκθεση “Dark Side of GenAI” σχετικά με τον κίνδυνο ασφάλειας που σχετίζεται με την Generative Artificial Intelligence (GenAI), γνωστό ως επίθεση άμεσης έγχυσης. Πιο συγκεκριμένα, οι χρήστες εισάγουν συγκεκριμένες οδηγίες για να εξαπατήσουν τα chatbots ώστε να αποκαλύψουν ευαίσθητες πληροφορίες, εκθέτοντας πιθανώς τους οργανισμούς σε διαρροή δεδομένων.

Τα bots GenAI είναι ιδιαίτερα ευαίσθητα σε χειραγώγηση από άτομα με δεξιότητες όλων των επιπέδων, όχι μόνο από ειδικούς στον κυβερνοχώρο.

Μεταξύ των πιο ανησυχητικών ευρημάτων ήταν η ανακάλυψη ότι το 88% των συμμετεχόντων στην πρόκληση άμεσης έγχυσης, ξεγέλασαν με επιτυχία το bot GenAI προκειμένου να δώσει ευαίσθητες πληροφορίες σε τουλάχιστον ένα επίπεδο μιας ολοένα και πιο δύσκολης πρόκλησης. Σχεδόν το ένα πέμπτο των συμμετεχόντων (17%) ξεγέλασαν επιτυχώς το bot σε όλα τα επίπεδα, υπογραμμίζοντας τον κίνδυνο για τους οργανισμούς που χρησιμοποιούν bots GenAI.

Αυτή η έκθεση επιβεβαιώνει πόσο απαραίτητη είναι η συνεργασία του δημόσιου και του ιδιωτικού τομέα και οι εταιρικές πολιτικές για τον μετριασμό των κινδύνων ασφαλείας που προκύπτουν από την εκτεταμένη υιοθέτηση των bots GenAI. Οι ηγέτες πρέπει να γνωρίζουν τους κινδύνους έγκαιρης έγχυσης και να λάβουν αποφασιστική δράση, συμπεριλαμβανομένης της θέσπισης ολοκληρωμένων πολιτικών για τη χρήση του GenAI στους οργανισμούς τους.

Βασικά ευρήματα από τη μελέτη «Dark Side of GenAI» των Immersive Labs

Η ομάδα παρατήρησε τα ακόλουθα βασικά σημεία με βάση την ανάλυση των δεδομένων της, όπως:

-Το GenAI δεν ταιριάζει (ακόμα) με την ανθρώπινη εφευρετικότητα:

Οι χρήστες αξιοποιούν με επιτυχία δημιουργικές τεχνικές για να εξαπατήσουν τα ρομπότ GenAI, ενσωματώνοντας για παράδειγμα κώδικες σε ποιήματα ή ιστορίες ή να τροποποιώντας τις αρχικές τους οδηγίες, για να αποκτήσουν μη εξουσιοδοτημένη πρόσβαση σε ευαίσθητες πληροφορίες.

-Δεν χρειάζεται να είστε ειδικός για να εκμεταλλευτείτε το GenAI:

Τα ευρήματα της έκθεσης δείχνουν ότι ακόμη και οι μη επαγγελματίες της κυβερνοασφάλειας και όσοι δεν είναι εξοικειωμένοι με τις επιθέσεις άμεσης έγχυσης μπορούν να αξιοποιήσουν τη δημιουργικότητά τους για να εξαπατήσουν τα ρομπότ.

-Εφόσον τα ρομπότ μπορούν να ξεπεραστούν από τους ανθρώπους, οι οργανισμοί κινδυνεύουν:

Δεν υπάρχουν σήμερα πρωτόκολλα για την πλήρη πρόληψη των επιθέσεων άμεσης έγχυσης. Οι ηγέτες του κυβερνοχώρου και οι προγραμματιστές GenAI πρέπει να προετοιμαστούν επειγόντως – και να ανταποκριθούν – σε αυτήν την αναδυόμενη απειλή για τον μετριασμό πιθανής βλάβης σε ανθρώπους, οργανισμούς και κοινωνία.

«Η έρευνά μας καταδεικνύει την κρίσιμη σημασία της υιοθέτησης μιας προσέγγισης ασφαλούς σχεδιασμού σε ολόκληρο τον κύκλο ζωής ανάπτυξης του συστήματος GenAI», σχολίασε ο Kev Breen, Senior Director of Threat Intelligence, Immersive Labs. «Οι οργανισμοί θα πρέπει να λάβουν υπόψη τους την αντιστάθμιση μεταξύ ασφάλειας και εμπειρίας χρήστη και τον τύπο του μοντέλου συνομιλίας που χρησιμοποιείται ως μέρος της αξιολόγησης κινδύνου χρήσης του GenAI στα προϊόντα και τις υπηρεσίες τους».

Η ερευνητική ομάδα της Immersive Labs αποτελούμενη από τους Dr. John Blythe, Διευθυντή Cyber ​​Psychology, Kev Breen, Senior Director of Cyber ​​Threat Intelligence και Joel Iqbal, Αναλυτής Δεδομένων, ανέλυσαν τα αποτελέσματα του GenAI Challenge της Immersive Labs που διεξήχθη από τον Ιούνιο έως τον Σεπτέμβριο του 2023. Η πρόκληση απαιτούσε από τους συμμετέχοντες να ξεγελάσουν ένα bot GenAI ώστε να αποκαλύψει έναν μυστικό κωδικό πρόσβασης με αυξανόμενη δυσκολία σε καθένα από τα 10 επίπεδα. Το αρχικό δείγμα αποτελούνταν από 316.637 υποβολές, με 34.555 συμμετέχοντες συνολικά να καταφέρουν να φέρουν εις πέρας την πρόκληση. Η ομάδα εξέτασε τις διάφορες τεχνικές προτροπής που χρησιμοποιήθηκαν, τις αλληλεπιδράσεις των χρηστών και το άμεσο συναίσθημα προκειμένου να συλλέξει τα απαραίτητα στοιχεία.

Previous Article

45ο Ετήσιο Συνέδριο της Κλινικής Βιοστατιστικής

Next Article

Τα drone της κινεζικής DJI απειλή για την ασφάλεια των ΗΠΑ;

You might be interested in …