Λίγες ώρες μετά τις πληροφορίες για διάλυση της ομάδας αντιμετώπισης μακροπρόθεσμων κινδύνων Τεχνητής Νοημοσύνης της OpenAI, «θόρυβο» προκαλεί η παραίτηση του επικεφαλής ερευνητή της OpenAI, Jan Leike.
«Η OpenAI δεν παίρνει την ασφάλεια αρκετά σοβαρά. Τα τελευταία χρόνια, η φιλοσοφία και οι διαδικασίες ασφάλειας έχουν περάσει σε δεύτερη μοίρα», δήλωσε σε αναρτήσεις του στην πλατφόρμα X ο κ. Leike, εξηγώντας τους λόγους της παραίτησής του.
Ο ίδιος διηύθυνε την ομάδα «Superalignment», η οποία είχε αναλάβει την επίλυση βασικών τεχνικών προκλήσεων στην εφαρμογή πρωτοκόλλων ασφαλείας, καθώς η OpenAI ανέπτυξε Τεχνητή Νοημοσύνη που μπορεί να συλλογιστεί σαν άνθρωπος.
Σε άλλο σημείο των αναρτήσεών του ο κ. Leike αναφέρει: «Η κατασκευή πιο έξυπνων από τον άνθρωπο μηχανών είναι μία εγγενώς επικίνδυνη προσπάθεια», επισημαίνοντας την ανάγκη να επικρατήσει σοβαρότητα γύρω από τις επιπτώσεις της Artificial General Intelligence, ώστε να διασφαλιστεί ότι η Τεχνητή Νοημοσύνη θα ωφελήσει την ανθρωπότητα.