Aktuelle Blogs

Einblicke in die Welt der KI-Sicherheit.
How AI Agents Can Leak Your Data Through Images

How AI Agents Can Leak Your Data Through Images

LLMs excel at crafting and interpreting text with remarkable accuracy. They become even more powerful when hooked into internal data —…

Mehr erfahren
Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

In my previous article , I showed how an AI agent’s web‐search feature can be exploited to extract confidential information. In this…

Mehr erfahren
Chatbot-Sicherheitslücken: Warum Eigenbau oft scheitert

Chatbot-Sicherheitslücken: Warum Eigenbau oft scheitert

Typische Schwachstellen selbstgebauter Chatbots — von Jailbreaks bis Datenexposure — und wie Smart Labs AI im PoC gezielt Abhilfe schafft.

Mehr erfahren
Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Im spannenden Interview mit dem SCY Club-Team, das beim IEEE SaTML 2025 LLMail-Inject-Wettbewerb den 11. Platz unter 224 Teams erreichte, erfahren Sie aus erster Hand, wie verwundbar selbst Microsofts modernste KI-Sicherheitssysteme sind.

Mehr erfahren
Can AI Agents Leak Your Company’s Secrets?

Can AI Agents Leak Your Company’s Secrets?

Imagine this: a helpful AI chatbot, designed to assist customers, inadvertently reveals confidential internal memos. This isn’t science…

Mehr erfahren
DeepSeek: Revolutionäre Trainingsmethode

DeepSeek: Revolutionäre Trainingsmethode

DeepSeek trainiert ein kleineres Modell (DeepSeek-R1-Zero), um optimierte Daten für das leistungsstärkere DeepSeek-R1 zu generieren, wodurch kostengünstige und effiziente LLMs entstehen.

Mehr erfahren
Gefährliche KI-Modelle

Gefährliche KI-Modelle

Eine Sicherheitslücke in Hugging Face zeigte, wie bösartige Modelle Schwachstellen in Python ausnutzen – was das für die Zukunft der LLM-Sicherheit bedeutet.

Mehr erfahren
Sind KI-Agenten sicher?

Sind KI-Agenten sicher?

LLMs und KI-Agenten sind anfällig für Manipulationen, weshalb robuste Sicherheitsmaßnahmen, kontinuierliche Überwachung und die Einhaltung neuer regulatorischer Anforderungen wie dem EU AI Act entscheidend sind.

Mehr erfahren