Έρευνα από το Πανεπιστήμιο Ben Gurion αποκάλυψε ότι τα περισσότερα chatbots τεχνητής νοημοσύνης μπορούν εύκολα να παρακαμφθούν για να παρέχουν επικίνδυνες ή παράνομες πληροφορίες. Οι ερευνητές ανέπτυξαν μια καθολική μέθοδο “jailbreak” που εκμεταλλεύεται ευπάθειες στα συστήματα ασφαλείας των μοντέλων, επισημαίνοντας την ανάγκη για αυστηρότερα μέτρα ασφαλείας και ηθικές πρακτικές στην ανάπτυξη τεχνητής νοημοσύνης. The Guardian



