Aktuelle Blogs

Einblicke in die Welt der KI-Sicherheit.
🔒 API-Switch: So schĂŒtzt du deinen AI-Agenten vor Prompt-Injections 🔒

🔒 API-Switch: So schĂŒtzt du deinen AI-Agenten vor Prompt-Injections 🔒

WĂ€hrend in unserem ersten Video der AI Agent noch auf die Prompt Injection ‘reingefallen’ ist, https://youtu.be/I7EOcSYMgiA zeigen wir hier unseren Lösungsan…

Mehr erfahren
GefÀhrliche Stille: Wenn dein AI-Agent heimlich handelt

GefÀhrliche Stille: Wenn dein AI-Agent heimlich handelt

🚹 Alarmstufe Rot fĂŒr deine (Firmen-)Daten! 🚹In diesem Video zeigt Dennis Rall, wie jeder beliebige AI-Agent (hier live im n8n-Workflow) unbemerkt deine eig…

Mehr erfahren
How AI Agents Can Leak Your Data Through Images

How AI Agents Can Leak Your Data Through Images

LLMs excel at crafting and interpreting text with remarkable accuracy. They become even more powerful when hooked into internal data —


Mehr erfahren
Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

In my previous article , I showed how an AI agent’s web‐search feature can be exploited to extract confidential information. In this


Mehr erfahren
Chatbot-SicherheitslĂŒcken: Warum Eigenbau oft scheitert

Chatbot-SicherheitslĂŒcken: Warum Eigenbau oft scheitert

Typische Schwachstellen selbstgebauter Chatbots — von Jailbreaks bis Datenexposure — und wie Smart Labs AI im PoC gezielt Abhilfe schafft.

Mehr erfahren
Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Im spannenden Interview mit dem SCY Club-Team, das beim IEEE SaTML 2025 LLMail-Inject-Wettbewerb den 11. Platz unter 224 Teams erreichte, erfahren Sie aus erster Hand, wie verwundbar selbst Microsofts modernste KI-Sicherheitssysteme sind.

Mehr erfahren
Can AI Agents Leak Your Company’s Secrets?

Can AI Agents Leak Your Company’s Secrets?

Imagine this: a helpful AI chatbot, designed to assist customers, inadvertently reveals confidential internal memos. This isn’t science


Mehr erfahren
DeepSeek: RevolutionÀre Trainingsmethode

DeepSeek: RevolutionÀre Trainingsmethode

DeepSeek trainiert ein kleineres Modell (DeepSeek-R1-Zero), um optimierte Daten fĂŒr das leistungsstĂ€rkere DeepSeek-R1 zu generieren, wodurch kostengĂŒnstige und effiziente LLMs entstehen.

Mehr erfahren
GefÀhrliche KI-Modelle

GefÀhrliche KI-Modelle

Eine SicherheitslĂŒcke in Hugging Face zeigte, wie bösartige Modelle Schwachstellen in Python ausnutzen – was das fĂŒr die Zukunft der LLM-Sicherheit bedeutet.

Mehr erfahren
Sind KI-Agenten sicher?

Sind KI-Agenten sicher?

LLMs und KI-Agenten sind anfĂ€llig fĂŒr Manipulationen, weshalb robuste Sicherheitsmaßnahmen, kontinuierliche Überwachung und die Einhaltung neuer regulatorischer Anforderungen wie dem EU AI Act entscheidend sind.

Mehr erfahren