IBM Forscher täuschen ChatGPT leicht, um Hacking auszuführen

IBM Forscher täuschen ChatGPT leicht, um Hacking auszuführen

Die Täuschung generativer KI zur Durchführung von Betrügereien und Cyberangriffen erfordert nicht viel Codierungsknow-how, warnen neue Forschungsergebnisse, die exklusiv mit Axios geteilt wurden. Forscher bei IBM haben am 8. August einen Bericht veröffentlicht, der einfache Umgehungslösungen aufzeigt, die sie entdeckt haben, um große Sprachmodelle (LLMs) wie ChatGPT dazu zu bringen, schädlichen Code zu schreiben und schlechte Sicherheitsratschläge zu geben. Die Forschung kommt zu einer Zeit, in der Tausende von Hackern in dieser Woche nach Las Vegas reisen, um die Sicherheit dieser gleichen LLMs auf der DEF CON-Konferenz zu testen. Viele Forscher und Regierungsvertreter haben auch davor gewarnt, dass LLMs unerfahrenen Hackern helfen könnten, Malware mühelos zu schreiben und Phishing-E-Mails als legitim erscheinen zu lassen.

Facebook
LinkedIn
Twitter
XING
Email
Nach oben scrollen
Die neuesten Cybernews

Melde dich zu unserem Newsletter an!

Sei deinen Angreifern immer einen Schritt voraus mit den aktuellen Cybersecurity News!