LLM-Agenten können in der Lage sein, in Echtzeit auftretende Schwachstellen in realen Computersystemen autonom auszunutzen.
Sandwich-Angriff ist ein Schwarzbox-Mehrsprachengemisch-Angriff auf LLMs, der schädliche und fehlangepasste Antworten vom Modell hervorruft.
Durch die Nutzung der inhärenten Kausalität in Provenienzgraphen und die Verwendung eines Tag-Propagations-Frameworks können wir TagS, ein effizientes und zeitnahes System zur Erkennung und Untersuchung von Angriffen in Echtzeit, entwickeln.
Großsprachmodelle bergen sowohl Sicherheitsrisiken als auch Potenzial für Cybersicherheitsmaßnahmen in 6G-Netzwerken. Es ist erforderlich, die Bedrohungen zu verstehen, Verteidigungsstrategien zu entwickeln und die Integration von Großsprachmodellen in autonome Sicherheitssysteme zu erforschen.
Große Sprachmodelle (LLMs) können effektiv eingesetzt werden, um Schadsoftware in JavaScript-Paketen im npm-Ökosystem zu erkennen.
Die rasante Entwicklung generativer KI-Technologien, insbesondere von Generative Pre-trained Transformer (GPT)-Modellen wie ChatGPT, hat das Potenzial, die Cybersicherheit erheblich zu beeinflussen. Universitäten müssen ihre Lehrpläne anpassen, um den sich entwickelnden Bedürfnissen der Branche gerecht zu werden.
Dieser Artikel untersucht die strategischen Überlegungen von Angreifern und Verteidigern in Cyberoperationen und Capture-the-Flag-Wettbewerben. Dabei werden die Auswirkungen von Ressourcenbeschränkungen, Informationsasymmetrien und gemeinsamen Informationen wie Verwundbarkeitsmetriken analysiert.
Eine Kombination aus selektiver MLM und gemeinsamen Training der Klassifizierung nicht-linguistischer Elemente übertrifft den üblichen Ansatz des Ersetzens nicht-linguistischer Elemente.
Ein robuster Rahmen für die Erkennung von Phishing-Websites, der eine hohe Genauigkeit über verschiedene Datensätze hinweg bietet.
Durch das Einfügen von künstlichen Bugs in Bug-Bounty-Programme können Anreize für Teilnehmer erhöht und die finanziellen Aufwendungen des Designers reduziert werden.