
How AI Agents Can Leak Your Data Through Images
LLMs excel at crafting and interpreting text with remarkable accuracy. They become even more powerful when hooked into internal data —…
Mehr erfahrenLLMs excel at crafting and interpreting text with remarkable accuracy. They become even more powerful when hooked into internal data —…
Mehr erfahrenIn my previous article , I showed how an AI agent’s web‐search feature can be exploited to extract confidential information. In this…
Mehr erfahrenTypische Schwachstellen selbstgebauter Chatbots — von Jailbreaks bis Datenexposure — und wie Smart Labs AI im PoC gezielt Abhilfe schafft.
Mehr erfahrenIm spannenden Interview mit dem SCY Club-Team, das beim IEEE SaTML 2025 LLMail-Inject-Wettbewerb den 11. Platz unter 224 Teams erreichte, erfahren Sie aus erster Hand, wie verwundbar selbst Microsofts modernste KI-Sicherheitssysteme sind.
Mehr erfahrenImagine this: a helpful AI chatbot, designed to assist customers, inadvertently reveals confidential internal memos. This isn’t science…
Mehr erfahrenDeepSeek trainiert ein kleineres Modell (DeepSeek-R1-Zero), um optimierte Daten für das leistungsstärkere DeepSeek-R1 zu generieren, wodurch kostengünstige und effiziente LLMs entstehen.
Mehr erfahrenEine Sicherheitslücke in Hugging Face zeigte, wie bösartige Modelle Schwachstellen in Python ausnutzen – was das für die Zukunft der LLM-Sicherheit bedeutet.
Mehr erfahrenLLMs und KI-Agenten sind anfällig für Manipulationen, weshalb robuste Sicherheitsmaßnahmen, kontinuierliche Überwachung und die Einhaltung neuer regulatorischer Anforderungen wie dem EU AI Act entscheidend sind.
Mehr erfahren