Dieser Beitrag basiert auf Mackenzies Gespräch mit Noora Ahmed-Moshe im Podcast „The Secure Disclosure“. Hören Sie sich die gesamte Folge an.
Ein Unternehmen verlor eine Million Dollar, weil jemand während eines Telefonats im Rahmen eines Rechtsstreits ein KI-Protokollierungsprogramm einsetzte. Wie die Verhaltenswissenschaftlerin Noora Ahmed-Moshe im Podcast erklärt, fasste das Tool ein vertrauliches Gespräch zusammen und übermittelte es der gegnerischen Partei, die es nutzte, um einen Vergleich zu ihren Bedingungen durchzusetzen. Rechtsexperten warnen, dass KI-generierte Protokolle mittlerweile regelmäßig Gegenstand der Beweisaufnahme in Rechtsstreitigkeiten sind.
Notizenschreiber sind nur ein Beispiel. Mitarbeiter nutzen KI auf vielfältigere Weise, als ihren Unternehmen bewusst ist, und in Wirklichkeit sind sie dazu gezwungen. Laut Ahmed-Moshe handelt es sich dabei um eine Angstreaktion. „Es herrscht eine allgemeine Panik, dass KI kommen und einem den Job wegnehmen wird.“ Über 95 % der Arbeitgeber möchten mittlerweile Mitarbeiter mit KI-Kenntnissen einstellen. Mitarbeiter haben Angst, bei den Tools den Anschluss zu verlieren, weil sie den Arbeitsmarkt richtig einschätzen.
Genau diese Angst treibt die „Schatten-KI“ an. Mitarbeiter greifen auf nicht genehmigte Tools zurück, weil sich die Technologie schneller entwickelt, als es jeder Genehmigungszyklus nachverfolgen kann. Bis Ihre IT-Abteilung einen Proof of Concept durchgeführt und den Zugriff gewährt hat, haben Ihre Mitarbeiter bereits von einem Kollegen von einer besseren Lösung gehört. Wenn Sie ihnen ein genehmigtes Tool zur Verfügung stellen, das nicht zu ihrem Arbeitsablauf passt, und dann alles andere blockieren, haben Sie sie gerade dazu gebracht, die Tools, die sie tatsächlich nutzen, zu verbergen.
Und genau dort, wo man sich versteckt, beginnt der Riss.
Panik ist jetzt deine Angriffsfläche
Studien zeigen, dass mittlerweile mehr als die Hälfte der Beschäftigten am Arbeitsplatz nicht genehmigte KI-Tools nutzt. Mehr als die Hälfte davon speist sensible Unternehmensdaten in Tools ein, die ihr Unternehmen weder verwaltet noch überwacht oder von denen es gar nichts weiß. Das bedeutet, dass sensible Materialien wie Rechtsdokumente, Kundendaten und interne Strategien in ungeprüfte Modelle gelangen.
Selbst seriöse Tools in kostenlosen Tarifen nutzen diese Daten möglicherweise zum Trainieren von Modellen. Ein weniger seriöses Tool könnte sogar direkt gehackt werden. Und wie Ahmed-Moshe betonte: „Ich glaube nicht, dass sich die Risiken bisher wirklich konkretisiert haben, weil das Ganze noch so neu ist.“ Die Auswirkungen nehmen weiter zu, und wir haben bisher erst die ersten Anzeichen gesehen.
Ein Verbot bringt nichts
Der Drang, jegliche nicht genehmigte Nutzung von KI zu verbieten, ist verständlich. Samsung hat dies bei ChatGPT getan. Ein Sicherheitsberater berichtete auf Reddit von einem Kunden, der dasselbe forderte, dann aber herausfand, dass dessen CEO ChatGPT seit sechs Monaten über ein privates Konto genutzt hatte, um Präsentationen für den Vorstand zu erstellen.
Ein Verbot der Tools, auf die sich Ihre Mitarbeiter verlassen, wird sie nicht davon abhalten, diese weiterhin zu nutzen. Ahmed-Moshe drückt es so aus: „Wenn Sie versuchen, KI-Tools in Ihrem Unternehmen zu verbieten, sehe ich nicht, wie Sie als Unternehmen noch erfolgreich sein können.“ KI-Tools bergen zwar echte Sicherheitsrisiken, sind aber ein wesentlicher Bestandteil unserer Arbeitsweise. Ein Verbot von KI-Tools ist so, als würde man Teenagern verbieten, ihre Handys zu benutzen. Sie werden es einfach dort tun, wo Sie es nicht sehen können.
Das haben wir schon einmal erlebt. Schatten-IT gibt es schon seit Jahren, und BYOD entstand, als Unternehmen erkannten, dass das Sperren privater Geräte die Produktivität tatsächlich beeinträchtigen würde. Sie brauchten eine Möglichkeit, diese Geräte zu sichern. Bei Schatten-KI handelt es sich um dasselbe Problem, nur mit noch höheren Risiken.
So passen Sie Ihre Sicherheitsstrategie an, um Schatten-KI zu berücksichtigen
Die Unternehmen, die diese Lücke schließen, beseitigen die Umstände, die dazu führen, dass Mitarbeiter ihre Tool-Nutzung überhaupt erst verheimlichen wollen.
Was Sie tatsächlich tun können:
- Verschaffen Sie sich zunächst einen Überblick: Prüfen Sie, welche Tools verwendet werden, bevor Sie irgendetwas blockieren. Aikido überwacht jedes Entwicklergerät auf Bedrohungen, die außerhalb Ihrer üblichen Angriffsfläche liegen.
- Erkennen Sie die Lücken im Arbeitsablauf: Wenn Mitarbeiter nicht genehmigte Tools verwenden, hat das einen Grund. Finden Sie diesen Grund heraus und schließen Sie die Lücke mit einer Lösung, die tatsächlich funktioniert.
- Schaffen Sie psychologische Sicherheit: Ein offener Dialog ist wirksamer als Bestrafung, wenn es darum geht, Verhaltensweisen zu ändern. Sicherheitsteams, die zugänglich sind, genießen eine Akzeptanz, die geschlossene Kulturen niemals erreichen werden.
- Handeln Sie schneller als der Genehmigungszyklus. Der dreimonatige Prozess vom Proof-of-Concept bis zur Bereitstellung, der bei Unternehmenssoftware funktioniert hat, ist nicht mehr praktikabel, wenn sich sowohl die Bedrohungslage als auch die Tools von Monat zu Monat ändern.
„Shadow AI“ ist die neue Form des Phishing – ein Problem, das auf menschlichem Verhalten beruht und durch technische Maßnahmen zwar eingedämmt, aber niemals vollständig beseitigt werden kann. Die Panik ist die Schwachstelle. Daran muss man zuerst ansetzen.
{{cta}}
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@graph": [
{
"@type": "BlogPosting",
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse#article",
"mainEntityOfPage": {
"@type": "WebPage",
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse"
},
"headline": "Shadow AI risks start with fear, and banning makes them worse",
"description": "Employees aren't using unapproved AI tools to cause problems. They're scared of falling behind. Here's why banning shadow AI increases your security risk, and what to do instead.",
"image": {
"@type": "ImageObject",
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse#primaryimage",
"url": "https://www.aikido.dev/images/blog/shadow-ai-risks.png",
"contentUrl": "https://www.aikido.dev/images/blog/shadow-ai-risks.png",
"width": 1200,
"height": 630
},
"datePublished": "2026-05-12T00:00:00+00:00",
"dateModified": "2026-05-12T00:00:00+00:00",
"author": {
"@type": "Person",
"@id": "https://www.aikido.dev/authors/nicholas-thomson",
"name": "Nicholas Thomson",
"jobTitle": "Senior SEO & Growth Lead",
"worksFor": {
"@type": "Organization",
"name": "Aikido Security",
"url": "https://www.aikido.dev"
},
"sameAs": [
"https://www.linkedin.com/",
"https://x.com/"
]
},
"publisher": {
"@type": "Organization",
"@id": "https://www.aikido.dev#organization",
"name": "Aikido Security",
"url": "https://www.aikido.dev",
"logo": {
"@type": "ImageObject",
"url": "https://www.aikido.dev/logo.png"
}
},
"keywords": [
"shadow AI",
"shadow IT",
"AI security risks",
"unapproved AI tools",
"employee AI usage",
"AI data leakage",
"BYOD security",
"AI note-taker risks",
"security posture",
"attack surface",
"AI governance",
"insider threat",
"enterprise AI security",
"AI compliance",
"behavioral security"
],
"articleSection": "Cybersecurity",
"inLanguage": "en-US",
"timeRequired": "PT5M",
"isBasedOn": {
"@type": "PodcastEpisode",
"name": "AI Panic is Driving Shadow IT with Noora Ahmed-Moshe",
"url": "https://creators.spotify.com/pod/profile/thesecuredisclosure/episodes/AI-Panic-is-Driving-Shadow-IT-w-Noora-Ahmed-Moshe-e3ivlbo",
"partOfSeries": {
"@type": "PodcastSeries",
"name": "Secure Disclosures"
}
},
"about": [
{
"@type": "DefinedTerm",
"name": "Shadow AI",
"description": "The use of unapproved or unsanctioned AI tools by employees within an organization without the knowledge or consent of IT or security teams."
},
{
"@type": "DefinedTerm",
"name": "Shadow IT",
"description": "The use of information technology systems, software, and services without explicit organizational approval."
},
{
"@type": "Thing",
"name": "AI security risk",
"sameAs": "https://schema.org/Thing"
},
{
"@type": "Thing",
"name": "BYOD",
"description": "Bring Your Own Device — a policy allowing employees to use personal devices for work purposes."
}
],
"mentions": [
{
"@type": "Person",
"name": "Noora Ahmed-Moshe",
"jobTitle": "Behavioral Scientist",
"sameAs": "https://www.linkedin.com/in/noora-ahmed-moshe/"
},
{
"@type": "Organization",
"name": "Samsung",
"sameAs": "https://www.samsung.com"
},
{
"@type": "SoftwareApplication",
"name": "ChatGPT",
"applicationCategory": "AI Assistant",
"operatingSystem": "Web",
"sameAs": "https://chat.openai.com"
},
{
"@type": "SoftwareApplication",
"name": "Aikido Endpoint",
"applicationCategory": "Security Software",
"operatingSystem": "Web",
"url": "https://www.aikido.dev/attack/surface-monitoring-dast"
}
],
"citation": [
{
"@type": "WebPage",
"name": "Samsung bans ChatGPT and other generative AI use by staff after leak",
"url": "https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff-after-leak"
},
{
"@type": "WebPage",
"name": "Eavesdropping by Algorithm: Legal Risks of AI Meeting Assistants",
"url": "https://www.babstcalland.com/news-article/eavesdropping-by-algorithm-legal-risks-of-ai-meeting-assistants/"
},
{
"@type": "WebPage",
"name": "AI Job Market Report",
"url": "https://zapier.com/blog/ai-job-market-report/"
},
{
"@type": "WebPage",
"name": "Many workers are using unapproved AI tools at work",
"url": "https://www.techradar.com/pro/many-workers-are-using-unapproved-ai-tools-at-work-and-sharing-a-lot-of-private-data-they-really-shouldnt"
}
],
"speakable": {
"@type": "SpeakableSpecification",
"cssSelector": ["h1", "h2", ".article-summary"]
}
},
{
"@type": "WebPage",
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse",
"url": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse",
"name": "Shadow AI risks start with fear, and banning makes them worse",
"description": "Employees aren't using unapproved AI tools to cause problems. They're scared of falling behind. Here's why banning shadow AI increases your security risk, and what to do instead.",
"isPartOf": {
"@type": "WebSite",
"@id": "https://www.aikido.dev#website",
"url": "https://www.aikido.dev",
"name": "Aikido Security"
},
"primaryImageOfPage": {
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse#primaryimage"
},
"breadcrumb": {
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse#breadcrumb"
},
"inLanguage": "en-US"
},
{
"@type": "BreadcrumbList",
"@id": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse#breadcrumb",
"itemListElement": [
{
"@type": "ListItem",
"position": 1,
"name": "Home",
"item": "https://www.aikido.dev"
},
{
"@type": "ListItem",
"position": 2,
"name": "Blog",
"item": "https://www.aikido.dev/blog"
},
{
"@type": "ListItem",
"position": 3,
"name": "Shadow AI risks start with fear, and banning makes them worse",
"item": "https://www.aikido.dev/blog/shadow-ai-risks-start-with-fear-banning-makes-them-worse"
}
]
},
{
"@type": "Organization",
"@id": "https://www.aikido.dev#organization",
"name": "Aikido Security",
"url": "https://www.aikido.dev",
"logo": {
"@type": "ImageObject",
"url": "https://www.aikido.dev/logo.png"
},
"sameAs": [
"https://www.linkedin.com/company/aikido-security",
"https://x.com/aikido_security"
]
},
{
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "What is shadow AI?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Shadow AI refers to the use of unapproved or unsanctioned AI tools by employees within an organization, without the knowledge or oversight of IT or security teams. It is a subset of shadow IT and poses significant data security and compliance risks."
}
},
{
"@type": "Question",
"name": "Why do employees use shadow AI?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Employees use unapproved AI tools primarily out of fear of falling behind in a job market where AI skills are increasingly required. When approved tools don't fit their workflows, or approval cycles move too slowly, employees turn to tools that help them do their jobs more effectively."
}
},
{
"@type": "Question",
"name": "Why doesn't banning AI tools work?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Banning AI tools forces usage underground rather than eliminating it. Employees will use personal devices or accounts to access the tools they depend on. As with BYOD, the more effective approach is to create a secure, sanctioned framework that meets employees' actual workflow needs."
}
},
{
"@type": "Question",
"name": "What are the security risks of shadow AI?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Shadow AI poses multiple security risks including sensitive data being fed into unvetted models, data used to train third-party AI systems, exposure through breaches of unsecured tools, and AI-generated content such as meeting transcripts becoming discovery targets in legal proceedings."
}
},
{
"@type": "Question",
"name": "How can organizations reduce shadow AI risk?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Organizations should first gain visibility into what tools are being used, understand the workflow gaps driving unsanctioned usage, create psychological safety so employees feel comfortable disclosing tool usage, and accelerate their approval cycles to keep pace with the speed of AI development."
}
}
]
}
]
}
</script>

