Die Täuschung generativer KI zur Durchführung von Betrügereien und Cyberangriffen erfordert nicht viel Codierungsknow-how, warnen neue Forschungsergebnisse, die exklusiv mit Axios geteilt wurden. Forscher bei IBM haben am 8. August einen Bericht veröffentlicht, der einfache Umgehungslösungen aufzeigt, die sie entdeckt haben, um große Sprachmodelle (LLMs) wie ChatGPT dazu zu bringen, schädlichen Code zu schreiben und schlechte Sicherheitsratschläge zu geben. Die Forschung kommt zu einer Zeit, in der Tausende von Hackern in dieser Woche nach Las Vegas reisen, um die Sicherheit dieser gleichen LLMs auf der DEF CON-Konferenz zu testen. Viele Forscher und Regierungsvertreter haben auch davor gewarnt, dass LLMs unerfahrenen Hackern helfen könnten, Malware mühelos zu schreiben und Phishing-E-Mails als legitim erscheinen zu lassen.
IBM Forscher täuschen ChatGPT leicht, um Hacking auszuführen
- Maria Feger
- August 9, 2023
- 6:34 pm
Facebook
LinkedIn
Twitter
XING
Email
Jüngste Beiträge
Supply-Chain-Attacken: Millionen iOS-Apps betroffen
Juli 16, 2024
Keine Kommentare
Hackerangriff auf TeamViewer
Juli 11, 2024
Keine Kommentare
Quishing: Die Neue Gefahr des QR-Code-Phishings
Juli 9, 2024
Keine Kommentare
Kritische Zero-Day-Root-Lücke im Linux-Kernel
Juni 28, 2024
Keine Kommentare
SAP-Systeme: Dringende Updates erforderlich
Juni 27, 2024
Keine Kommentare