Aktuelle Blogs | Smart Labs AI

Einblicke in die Welt der KI-Sicherheit.
🤖 KI-Sicherheit & der „Doppelgänger-Trick“

🤖 KI-Sicherheit & der „Doppelgänger-Trick“

🤖 KI-Sicherheit & der „Doppelgänger-Trick“: Warum Nano Banana uns alle zum Nachdenken bringen sollte Von der Kuppel des Reichstags aus – wo Transparenz und Governance aufeinandertreffen – wird klar: Die neueste Welle der KI-Bildgenerierung, angeführt von Google DeepMinds Nano Banana, ist nicht n…

Mehr erfahren
🚀 MCP – Der Marktplatz für eure KI-Agenten!
Stellt euch vor, ihr steht auf einem belebten Wochenmarkt

🚀 MCP – Der Marktplatz für eure KI-Agenten! Stellt euch vor, ihr steht auf einem belebten Wochenmarkt

🚀 MCP – Der Marktplatz für eure KI-Agenten! Stellt euch vor, ihr steht auf einem belebten Wochenmarkt. Jeder Händler bietet etwas anderes an: frisches Gemüse, Gewürze, Fleisch, Fisch. Ihr wisst genau, wo ihr was bekommt – und je nachdem, was ihr kochen wollt, geht ihr zu dem passenden Stand. Gen…

Mehr erfahren
🚀 Zero LLM Vulnerabilities

🚀 Zero LLM Vulnerabilities

🚀 Zero LLM Vulnerabilities. Tested. Do you know DAPI? Agentic AI is powerful, but only if it’s secure. At Smart Labs AI, we don’t just mitigate risks; we eliminate them. Our Defense API and LLM Security Platform provide end-to-end protection, stopping prompt injections, data leaks, and unauthori…

Mehr erfahren
📢 Proud Moment for Smart Labs!
Our research on agentic AI security and indirect prompt injection just got featured in Help Net Security! 🎉
Discover how hidden instructions in web content can manipulate AI agents—and why this matters for every organization deploying AI

📢 Proud Moment for Smart Labs! Our research on agentic AI security and indirect prompt injection just got featured in Help Net Security! 🎉 Discover how hidden instructions in web content can manipulate AI agents—and why this matters for every organization deploying AI

📢 Proud Moment for Smart Labs! Our research on agentic AI security and indirect prompt injection just got featured in Help Net Security! 🎉 Discover how hidden instructions in web content can manipulate AI agents—and why this matters for every organization deploying AI. A big thank you to our pa…

Mehr erfahren
🚨 Achtung KI-Entwickler & Security-Enthusiasten! 🚨
„Ein MCP-Server an mein LLM anbinden? Kann doch nicht schaden…“ DOCH! Und zwar mehr, als du denkst

🚨 Achtung KI-Entwickler & Security-Enthusiasten! 🚨 „Ein MCP-Server an mein LLM anbinden? Kann doch nicht schaden…“ DOCH! Und zwar mehr, als du denkst

🚨 Achtung KI-Entwickler & Security-Enthusiasten! 🚨 „Ein MCP-Server an mein LLM anbinden? Kann doch nicht schaden…“ DOCH! Und zwar mehr, als du denkst. 💥 Wer irgendeinen MCP Server mit seinem Large Language Model (LLM) verbindet, öffnet Angreifern Tür und Tor – und zwar direkt ins Herz deines KI…

Mehr erfahren
Smart Labs AI Publishes Groundbreaking Research on AI Agent Security

Smart Labs AI Publishes Groundbreaking Research on AI Agent Security

Smart Labs AI and the University of Augsburg just published “Exploiting Web Search Tools of AI Agents for Data Exfiltration” on arXiv.

Mehr erfahren
🔒 API-Switch: So schützt du deinen AI-Agenten vor Prompt-Injections 🔒

🔒 API-Switch: So schützt du deinen AI-Agenten vor Prompt-Injections 🔒

Während in unserem ersten Video der AI Agent noch auf die Prompt Injection ‘reingefallen’ ist, https://youtu.be/I7EOcSYMgiA zeigen wir hier unseren Lösungsan…

Mehr erfahren
Gefährliche Stille: Wenn dein AI-Agent heimlich handelt

Gefährliche Stille: Wenn dein AI-Agent heimlich handelt

🚨 Alarmstufe Rot für deine (Firmen-)Daten! 🚨In diesem Video zeigt Dennis Rall, wie jeder beliebige AI-Agent (hier live im n8n-Workflow) unbemerkt deine eig…

Mehr erfahren
How AI Agents Can Leak Your Data Through Images

How AI Agents Can Leak Your Data Through Images

LLMs excel at crafting and interpreting text with remarkable accuracy. They become even more powerful when hooked into internal data —…

Mehr erfahren
Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

Why Whitelisting Is Not Enough to Secure your Agent’s Web Search

In my previous article , I showed how an AI agent’s web‐search feature can be exploited to extract confidential information. In this…

Mehr erfahren
Chatbot-Sicherheitslücken: Warum Eigenbau oft scheitert

Chatbot-Sicherheitslücken: Warum Eigenbau oft scheitert

Typische Schwachstellen selbstgebauter Chatbots — von Jailbreaks bis Datenexposure — und wie Smart Labs AI im PoC gezielt Abhilfe schafft.

Mehr erfahren
Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Wenn KI-Agenten unsere Mails verwalten: Wie sicher ist das?

Im spannenden Interview mit dem SCY Club-Team, das beim IEEE SaTML 2025 LLMail-Inject-Wettbewerb den 11. Platz unter 224 Teams erreichte, erfahren Sie aus erster Hand, wie verwundbar selbst Microsofts modernste KI-Sicherheitssysteme sind.

Mehr erfahren
Can AI Agents Leak Your Company’s Secrets?

Can AI Agents Leak Your Company’s Secrets?

Imagine this: a helpful AI chatbot, designed to assist customers, inadvertently reveals confidential internal memos. This isn’t science…

Mehr erfahren
DeepSeek: Revolutionäre Trainingsmethode

DeepSeek: Revolutionäre Trainingsmethode

DeepSeek trainiert ein kleineres Modell (DeepSeek-R1-Zero), um optimierte Daten für das leistungsstärkere DeepSeek-R1 zu generieren, wodurch kostengünstige und effiziente LLMs entstehen.

Mehr erfahren
Gefährliche KI-Modelle

Gefährliche KI-Modelle

Eine Sicherheitslücke in Hugging Face zeigte, wie bösartige Modelle Schwachstellen in Python ausnutzen – was das für die Zukunft der LLM-Sicherheit bedeutet.

Mehr erfahren
Sind KI-Agenten sicher?

Sind KI-Agenten sicher?

LLMs und KI-Agenten sind anfällig für Manipulationen, weshalb robuste Sicherheitsmaßnahmen, kontinuierliche Überwachung und die Einhaltung neuer regulatorischer Anforderungen wie dem EU AI Act entscheidend sind.

Mehr erfahren