Claude Mythos, und drei Monate, die Anthropic in die erste Reihe katapultiert haben #9vor9
Ein KI-Modell findet automatisch Sicherheitslücken in Software, die seit 27 Jahren im Einsatz ist – Lücken, die kein menschlicher Programmierer je entdeckt hatte, vollkommen ohne menschliche Interaktion. Als der Code von Claude Mythos, dem neuen Frontier-Modell* von Anthropic, Anfang April ins Netz gelangte, war das keine Randmeldung. Claude Mythos ist genau das: ein System, das Fähigkeiten demonstriert, die bislang als ausschließlich menschlich galten. Anlass genug für Lars und mich, in Folge 206 von #9vor9 darüber zu sprechen – auch wenn wir keine Programmierer sind.
youtu.be/qIqYCmLQLlc
9vor9.podigee.io/206-anthropic…
Die Aufregung ist und war groß. Der US-Finanzminister und die führenden US-Banken, EZB, die BaFin und der deutsche Bankenverband berieten in Dringlichkeitssitzungen über systemische Cyberrisiken durch die neue KI-Generation. Anthropic hat mit Project Glasswing reagiert und das Modell einem exklusiven Konsortium aus rund 40 Partnern – darunter Apple, Microsoft, Google, JPMorganChase und die Linux Foundation – zur Verfügung gestellt, damit die „guten Akteure“ einen Vorsprung beim Schließen der Lücken bekommen. Das BSI hat Kontakt zu Anthropic aufgenommen: BSI-Präsidentin Claudia Plattner erklärte, man nehme die Ankündigungen „sehr ernst“ – die Entwicklung werfe Fragen der nationalen und europäischen Sicherheit und Souveränität auf.
Echter Alarm oder PR-Kalkül kurz vor dem Börsengang?
Dieser Tage stand dann plötzlich eine andere Frage im Raum, die Lars und ich nicht ignorieren wollten: Ist das alles womöglich ein sorgfältig inszenierter PR-Gag? Anthropic steht kurz vor dem Börsengang, mit einer Bewertung von bis zu 800 Milliarden Dollar. Die Dramatik rund um Claude Mythos – der Leak, die Dringlichkeitssitzungen, die exklusive Partnerliste – kommt zu einem verdächtig günstigen Zeitpunkt. Lars hatte die Frage gestellt, aber auch die Antwort recherchiert: Sicherheitsexperten, die daraufhin befragt wurden, sind überwiegend der Meinung, dass die Bedrohung real ist und so ernst genommen werden muss, wie sie dargestellt wird. Das schließt PR-Kalkül nicht aus. Beides kann gleichzeitig wahr sein. Und ein gutes Timing für Schlagzeilen kurz vor einem Börsengang ist in dieser Branche kein Zufall.
Von QuitGPT bis Claude Mythos: Die Ereignisse hinter dem Anthropic-Hype
Januar 2026 – Das Nutzerwachstum explodiert. Die täglich aktiven Nutzer verdreifachen sich in kürzester Zeit. Gleichzeitig wird bekannt, dass Anthropic Eingaben standardmäßig zum Modelltraining verwendet – wer das nicht will, muss aktiv widersprechen.
20. Februar – Anthropic veröffentlicht Claude Code Security als Research Preview. Das Tool findet Sicherheitslücken, die herkömmliche Werkzeuge übersehen. Die Ankündigung schickt Cybersecurity-Aktien wie CrowdStrike und Okta auf Talfahrt.
23. Februar – Ein schwarzer Tag für IBM: Nach der Vorstellung von Claude-Werkzeugen zur Modernisierung von COBOL-Systemen bricht der Kurs um über 13 Prozent ein. Der Markt sieht das Einsparpotenzial gegenüber teuren Beraterheerscharen.
26. Februar – Der Pentagon-Clash: CEO Dario Amodei lehnt einen Millionenvertrag für militärische Massenüberwachung und autonome Waffen ab. Das Pentagon setzt Anthropic daraufhin als „Risiko für die nationale Lieferkette“ auf eine Blacklist. OpenAI übernimmt den Vertrag.
Anfang März – Die QuitGPT-Bewegung erreicht ihren Höhepunkt: Über vier Millionen Nutzer kündigen bei OpenAI, nachdem dieses den Militärvertrag übernimmt. Claude stürzt ChatGPT vom Thron und wird die Nummer 1 im US App Store.
23. März – Computer Use: Claude kann nun aktiv Mauszeiger und Tastatur eines Macs steuern, um komplexe Aufgaben autonom zu erledigen.
26. März – Anthropic führt neue Usage Limits ein. In den europäischen Stoßzeiten zwischen 14 und 20 Uhr wird das Sitzungslimit deutlich schneller verbraucht.
31. März 2026 – Anthropic veröffentlichte versehentlich den kompletten Quellcode von Claude Code – dem Agentic-Tool – über das npm-Paketregister. Rund 500.000 Zeilen Code in 1.900 Dateien.
7. April – Claude Mythos wird vorgestellt. Das Frontier-Modell findet autonom eine 27 Jahre alte Lücke im OpenBSD-Kernel und erreicht bei der Exploit-Generierung für Firefox eine Erfolgsquote von 72,4 Prozent.
April (zeitgleich) – Start von Project Glasswing: Anthropic beschränkt den Zugang zu Claude Mythos auf rund 40 Partner, um Missbrauch zu begrenzen und den guten Akteuren einen Vorsprung zu verschaffen.
15. April – Berichte über eine potenzielle 800-Milliarden-Dollar-Bewertung kursieren. Anthropics jährliche Umsatz-Run-Rate überschreitet mit 30 Milliarden Dollar erstmals die von OpenAI.
16. April – EZB, BaFin und der deutsche Bankenverband beraten in Dringlichkeitssitzungen über die systemischen Cyberrisiken der neuen KI-Generation.
Oktober 2026 (geplant) – Vorbereitungen für den Börsengang konkretisieren sich.
Exploits, Zero-Days, C und C++: Warum jahrzehntealter Code zur globalen Schwachstelle wird
Wer mit den Begriffen nicht täglich umgeht, braucht hier kurz einen Anker. Ein Exploit ist ein Angriffswerkzeug: Code, der eine Sicherheitslücke gezielt ausnutzt, um in ein System einzudringen, Daten zu stehlen oder Kontrolle zu übernehmen. Zero-Days sind Lücken, die dem Hersteller noch nicht bekannt sind – und für die es deshalb noch keinen Patch gibt: null Tage Reaktionszeit, null Gegenwehr. N-Days hingegen sind Lücken, die zwar bereits bekannt und theoretisch gepatcht wurden, aber in der Praxis noch in ungezählten ungepatchten Systemen schlummern.
Warum stecken diese Lücken überhaupt in Software, die seit Jahrzehnten im Einsatz ist? 80 Prozent der kritischsten Systeme – Betriebssysteme, Virtual Machine Monitore, Browser – basieren historisch auf speicherunsicheren Sprachen wie C und C++. Das ist das Eisbergproblem der digitalen Infrastruktur: Oben sehen wir moderne Oberflächen und sauber designte Apps, darunter schlummern Millionen von Codezeilen aus einer anderen Ära, eingebettet in schiere Komplexität, nie vollständig auf Sicherheitslücken geprüft. Kein Mensch kann diesen Eisberg alleine durchtauchen. Claude Mythos tut es automatisch – und das ist sowohl die gute als auch die beunruhigende Nachricht.
Die Zeitleiste und dieser technische Hintergrund zeigen zweierlei: Anthropic ist in bemerkenswert kurzer Zeit von einem KI-Unternehmen, das Lars und ich kaum auf dem Radar hatten, zum Taktgeber einer ganzen Branche geworden. Und die Ereignisse sind kein zufälliges Rauschen – sie folgen einer Logik, die man sowohl bewundern als auch skeptisch beäugen kann.
Lars hat im Gespräch die entscheidende Vergleichsfrage gestellt: Was wäre eigentlich passiert, wenn Grok von Elon Musk oder OpenAI Claude Mythos in den Händen gehalten hätten? Seine Antwort war knapp und trocken – die würden das dann wahrscheinlich einfach online stellen und dann mal sehen, was passiert.
Der Pentagon-Clash macht den Unterschied sichtbar: CEO Dario Amodei lehnte einen Millionenvertrag für militärische Massenüberwachung und autonome Waffen ab. Das Pentagon setzte Anthropic daraufhin als „Risiko für die nationale Lieferkette“ auf eine Blacklist. OpenAI übernahm den Vertrag. Das sagt mehr als jedes Leitbild.
Wer hat Anthropic gegründet – und warum haben sie OpenAI verlassen?
Um zu verstehen, warum Anthropic so anders klingt als die Konkurrenz, lohnt ein Blick auf die Gründungsgeschichte. Dario Amodei verließ OpenAI im Dezember 2020 gemeinsam mit seiner Schwester Daniela und einer Handvoll weiterer Mitarbeiter – nicht wegen schlechter Bezahlung oder fehlender Perspektive, sondern aus echtem Dissens. Dario lehnte das Großinvestment von Microsoft in OpenAI ab und wollte KI-Sicherheit konsequenter in den Mittelpunkt stellen. Gemeinsam zogen sie mindestens neun weitere OpenAI-Mitarbeiter mit, die ihre Vision teilten. Das ist die Gründungserzählung, auf der Anthropics Anspruch basiert. Ob sie trägt, wenn Amazon, Google, Microsoft und Nvidia auf der Investorenliste stehen und ein Börsengang vor der Tür steht – das ist die eigentliche Frage.
Lars hat bei #9vor9 auch das Gründungsdokument von Anthropic zitiert: „Development of superhuman machine intelligence is probably the greatest threat to the continued existence of humanity.“ Und sofort die Folgefrage, die sitzt: Wenn Menschen, die so etwas sagen, vollkommen unreguliert arbeiten dürfen – ist das nicht genau das Problem? In den USA ist KI-Regulierung unter der aktuellen Administration kein ernstes Thema. Es gibt keine Leitplanken, keine Aufsicht mit echten Zähnen. Lars hat das klar ausgesprochen: „Ich möchte mich nicht auf das ethische Gewissen einzelner Tech Bros verlassen müssen.“ Ich auch nicht.
Autonome KI und meine Daten: Kreditkarte, Pass, Gesundheitsakte
Ich nutze Claude seit Wochen intensiv und habe meine ausführlichen Erfahrungen – von Claude Cowork über DSGVO-Realität bis zur Investorenstruktur – in einem separaten Blogbeitrag beschrieben. Mein Fazit dort war: beeindruckendes Werkzeug. Das gilt nach wie vor. Die autonomen Agenten auf dem Mac habe ich bewusst nur mit harmlosen Aufgaben erprobt – weiter werde ich auch wahrscheinlich nicht gehen, weil das dann schon ein bisschen zu spooky ist. Und dieses Unbehagen teilen Lars und ich ausdrücklich.
Denn reden wir konkret darüber, was heute technisch möglich ist: Ein autonomer KI-Agent kann Reisen buchen – und braucht dafür meine Kreditkartendaten. Er kann meine Steuererklärung vorbereiten – und braucht dafür meine Bankdaten, meine Spesenabrechnungen, meine Lohnzettel. Er kann meinen Pass scannen und verarbeiten, inklusive der biometrischen Daten, die darin stecken. Er kann meine Gesundheitsdaten lesen, um Versicherungen zu vergleichen oder Arzttermine zu buchen.
Das ist kein Science-Fiction. Das ist heute möglich. Die Frage ist nicht, ob die Technik das kann. Die Frage ist: Was passiert mit diesen Daten? An wen fließen sie weiter? Wer hat am Ende die Kontrolle – ich, oder ein System, das autonom handelt und dessen Entscheidungswege ich nicht vollständig nachvollziehen kann? Systeme, die autonom handeln, können eben auch autonom Schaden anrichten. Lars und ich sind keine Maschinenstürmer. Aber wir sind auch keine unkritischen Enthusiasten. Und das sollte man auch nicht sein.
Am Ende unseres Gesprächs hat Lars den Punkt gesetzt: „Es ist halt offensichtlich ein sehr kritischer Zeitpunkt gerade, was KI, Wirkung von KI, KI-Entwicklung angeht. Muss man jetzt auch nicht drumrum reden.“ Nein, muss man nicht. Was man aber festhalten muss: Anthropic ist kein Heilsversprechen. Amazon, Google, Microsoft und Nvidia sitzen wie erwähnt auf der Investorenliste, der Börsengang steht an.
Ist Anthropic wirklich die ethische KI-Alternative – oder Angst-Marketing vor dem Börsengang?
Die Kernfrage stellt sich weiter: Ist Anthropic die erwachsene, ethische Alternative? Oder nutzt das Unternehmen Angst-Marketing so geschickt, wie OpenAI einst Hype-Marketing betrieben hat? Die Antwort kennen wir noch nicht. Was wir kennen, sind historische Beispiele. Google hatte einmal „Don’t be evil“ als Leitspruch. Es war mehr als ein Slogan – es war ein Versprechen, das lange geglaubt wurde. Bis es leise verschwand. Beobachten wir kritisch, ob Anthropic einen anderen Weg geht.
* Frontier-Modelle sind die jeweils leistungsfähigsten KI-Systeme an der vordersten Entwicklungsfront – Modelle, die neue Maßstäbe setzen, bevor die Welt weiß, wozu sie fähig sind.
Anthropic_Disruption_(2)Herunterladen
#9vor9 #allgemein #Amazon #Anthropic #books #chatgpt #Claude #CyberSecurity #DSGVO #ElonMusk #EU #Google #KI #KIAgenten #Microsoft #Trump #USA #Wirtschaft
Mythos oder Marketing: Wie gefährlich ist das neue KI-Modell von Anthropic?
Auf YouTube findest du die angesagtesten Videos und Tracks. Außerdem kannst du eigene Inhalte hochladen und mit Freunden oder gleich der ganzen Welt teilen.9vor9 - Unser Digitalthema der Woche (YouTube)
Claude von Anthropic testen: Stark im Alltag, Vorsicht bei KI-Agenten
Ich bin und bleibe neugierig, also habe ich mir nach Perplexity, ChatGPT, Gemini und Le Chat Claude von Anthropic angeschaut. In zahlreichen Beiträgen habe ich viel Gutes über die Tools und das Unternehmen gehört. Einer der wenigen KI-Anbieter, der in den USA die Eier hat, sich gegen die ungehinderte Nutzung von KI durch das Pentagon und die Trump-Administration zu wehren. Und ein US-KI-Anbieter, der sich nach der europäischen Datenschutzgrundverordnung (DSGVO) richtet. Hört sich gut an.Claude im Browser: Der erste Eindruck zählt
Also Claude im Browser aufgerufen, einige Tage später Claude Cowork lokal auf meinem Mac installiert. Schon im Browser macht Claude einen guten Eindruck bei einer der Standardaufgaben, die ein LLM bei mir erledigen soll: Analysiere ein Transkript unseres Podcasts #9vor9 und erstelle mir daraus einen Vorschlag für einen Blogbeitrag in meinem typischen Stil. Arbeite Zitate ein, wenn diese verifiziert sind. Claude liefert mir hier gute Ergebnisse (auf Augenhöhe mit Le Chat), während ich mit ChatGPT immer noch hadere. Das Tool von OpenAI will einfach nicht mit Fließtext in Blöcken arbeiten, so wie es typisch für mein Blog ist.Ich habe dann auch weitere meiner Prompts in Claude als Skills angelegt – unterdessen eine typische Vorgehensweise, wenn ich solche Tools ausprobiere. So kann ich sehen bei welchem Prompt, welche KI welches Ergebnis liefert und das bewerten. Claude macht einen durchgängig guten Eindruck und die Skill-Methodik stellt sicher, dass Aufgaben im Kontext abrufbar sind (zum Beispiel erstelle ein Titelbild in meinem Stil für den Blogbeitrag). Die Aufgabe, einen Blogbeitrag auf Vollständigkeit zu prüfen, d.h. sind eine gute Überschrift, Zwischenüberschriften, Hashtags, Kategoriezuordnung, Message für Social Media, Teaser und Titelbild da, erledigt Claude mit Bravour und macht auch gleich Vorschläge, wenn etwas fehlt oder vielleicht falsch zugeordnet ist, ergänzt beispielsweise passende Tags.
Eine wirklich hilfreiche Arbeitserleichterung. Auch die simple Anweisung prüfe den gesamten Text auf Tipp- und Rechtschreibfehler erledigt Claude zuverlässig, zeigt mir Fehler an und fragt, ob es diese gleich beseitigen soll. Sehr komfortabel. Vorbildlich und hilfreich. Da kann sich WordPress mit seinen eigenen KI-Funktionen mehr als eine Scheibe abschneiden.
Claude Cowork: Wenn die KI deinen Mac übernimmt
Claude hat also in der ersten Woche in den Basics, die ich mit allen LLMs durchprobiert habe und probiere, überzeugt. Dann habe ich mich durchgerungen, Claude Cowork auf meinem Mac zu installieren, wodurch ich lokal auf meinem Mac Aufgaben ausführen lassen kann. Warum durchgerungen? Das war dann auch eine neue, beeindruckende Erfahrung. Ich habe mit einer einfachen Aufgabe angefangen: Säubere meinen Download-Ordner, suche Bilddubletten heraus und belasse nur die letzte Version im Ordner. Das hat Claude überzeugend erledigt.Also habe ich weiter experimentiert und Claude als sogenannten MCP für WordPress.com, wo mein Blog gehostet ist, aktiviert. Hier bin ich schnell über die üblichen Aufgaben rund um Texterstellung hinaus gegangen. So sollte Claude Cowork die Kategorien und Tags auf stefanpfeiffer.blog überarbeiten und optimieren, etwas, was immer zu kurz kommt, weil es bisher manuelle Arbeit war. Und siehe da, Claude Cowork hilft dabei beeindruckend und erledigt viele Aufgaben schnell und zuverlässig. So ist die Anzahl meiner Tags nicht nur deutlich geschrumpft, es wurden auch ähnliche Begriffe konsolidiert.
Was ist im Grunde besonders an Claude und Claude CoWork? Der eigene Rechner – derzeit nur ein Mac – mit all seinen Daten und Dokumenten, verschiedene Apps, die man nutzt – von PayPal über den AWS Marketplace bis zu den Google Tools wie dem Kalender – kann mit der Claude KI integriert genutzt werden. Das Neue und Besondere an CoWork ist, dass Prozesse automatisiert und wiederkehrend ablaufen sollen, ohne dass man aktiv dabei sein muss: lokale Dateien lesen und schreiben, Ordner verwalten, zeitgesteuerte Abläufe — der Rechner arbeitet unabhängig von uns Aufgaben ab. Ich übergebe dabei wenn nötig die Steuerung von Maus und Tastatur an Claude, dass dann autark an meinem MacBook arbeitet – ohne mein Zutun. Die Aufgaben, die CoWork bearbeitet, können in Theorie und Praxis beliebig komplex werden: die komplette Reisebuchung inklusive aller finanziellen Transaktionen und notwendigen Passdaten.
Vollzugriff auf meine Daten? Komfort hat seinen Preis
Vielleicht kann Claude sogar die jährliche Steuererklärung vorbereiten, wenn ich Claude auf meine Daten Zugriff gebe, meine Lohnzettel, Rechnungen in meiner Mail, Spenden, Spesen auf meiner Festplatte oder in meiner Mail. Die Daten können gesammelt, analysiert und zusammengeführt werden, ohne dass ich selbst etwas tun muss – außer halt Claude Zugriff auf meine Daten zu geben. Genau da liegt die Krux.Denn weiß ich wirklich, was mit meinen Daten geschieht? KI-Chatbots und -Agenten haben in den vergangenen Monaten zunehmend Anweisungen umgangen, Menschen getäuscht und Sicherheitsvorkehrungen umgangen. Eine Studie zeigt einen Anstieg betrügerischen Verhaltens um das Fünffache zwischen Oktober 2025 und März 2026. Wissenschaftler befürchten, dass sich dieses Verhalten auf zukünftige KI-Modelle ausweiten könnte, die Führungsentscheidungen treffen. Studie, die dem englischen Guardian vorliegt.
Also: Trotz aller Möglichkeiten mit Hilfe von Claude, lästige Routineaufgaben abzuwickeln, die ich sehr ungerne erledige: Ich werde Claude und keinem anderen Tool derzeit Zugriff auf alle meine Dokumente und Daten weder auf meinem Rechner noch in der Cloud geben. Eine KI, die auf mein Konto Zugriff hat? Da graut mir und es gibt noch viele andere Daten auch über Freunde und Bekannte, die eine KI nichts angehen. Derzeit sehe ich noch keine KI, die mir so vertrauenswürdig erscheint, dass ich ihr diese Daten übergeben würde.
QuitGPT und der Pentagon-Streit: Anthropics Aufstieg zur „ethischen Alternative“
Warum ist Anthropic überhaupt genau jetzt verstärkt ins Scheinwerferlicht gerückt? Ein Grund sind sicher die beeindruckenden Fähigkeiten auf dem lokalen Rechner, die KI-Agenten und die hohe Qualität bei den Antworten und der Formulierung von Texten. Ein anderer Grund ist wieder einmal Donald Trump. Also die Trump Administration.Der Konflikt zwischen Anthropic und dem Pentagon eskalierte Ende Februar 2026, als sich das KI-Unternehmen unter CEO Dario Amodei weigerte, einen 200-Millionen-Dollar-Vertrag mit dem US-Verteidigungsministerium zu unterzeichnen, da die Technologie nicht für tödliche autonome Operationen oder Massenüberwachung eingesetzt werden sollte. Als direkte Reaktion stufte das Pentagon Anthropic offiziell als „Risiko für die nationale Lieferkette“ ein – eine drastische Maßnahme, die üblicherweise gegen Firmen aus rivalisierenden Staaten wie China verhängt wird.
Während Anthropic auf seine ethischen Prinzipien beharrte, nutzte der Konkurrent OpenAI die Situation, lockerte seine bisherigen Verbote für militärische Nutzung und schloss im Februar 2026 einen Vertrag mit dem Verteidigungsministerium ab. Dieser Schritt löste jedoch eine massive Gegenbewegung unter dem Schlagwort „QuitGPT“ aus: Über vier Millionen Nutzer kündigten ihre Abos bei OpenAI, während die Downloads für Anthropics Chatbot Claude sprunghaft anstiegen und diesen in den USA an die Spitze der App-Charts katapultierten, da das Unternehmen nun weithin als die „ethische Alternative“ wahrgenommen wurde. Diese Welle ist unterdessen etwas abgeflaut, hat aber zu anderen Nebeneffekten geführt.
Token-Limits und Kostenfallen: Die Kehrseite des Hypes
Der Hype um Claude fordert seinen Tribut: Seit Anfang 2026 haben sich die Nutzerzahlen verdreifacht, was die Infrastruktur regelmäßig in die Knie zwingt und zu Ausfällen führt. Um die Last zu bewältigen, hat Anthropic die Daumenschrauben angezogen: Besonders in den europäischen Stoßzeiten zwischen 14 und 20 Uhr werden die 5-Stunden-Sitzungslimits deutlich schneller verbraucht, was die Arbeit vieler Nutzer empfindlich stören kann – auch meine Arbeit.Zur technischen Hürde gesellt sich eine versteckte Kostenfalle: Wer Claude intensiv für komplexe Aufgaben wie die WordPress-Anbindung oder MCP-Connectors nutzt, erreicht durch den enormen „Token-Verbrauch“ dieser Funktionen oft in kürzester Zeit sein wöchentliches Limit. Und dann kostet es extra … Ich war (und bin) von Claude und seinen Möglichkeiten beeindruckt. Diese Begeisterung wurde genau an dieser Stelle deutlich gedämpft: Ich kann nicht weiter arbeiten, nur wenn ich nochmals mehr zahle.
DSGVO-konform? Für Blogger nur auf dem Papier
Und dann ist da noch die Sache mit dem Datenschutz. Anthropic ist der US-amerikanische Anbieter, der damit argumentiert, der Datenschutzgrundverordnung DSGVO gerecht zu werden. Jedoch können persönliche Konten, einschließlich der kostenpflichtigen Pro-Version, derzeit nicht DSGVO-konform betrieben werden. Für die Anthropic Free- und Pro-Accounts, die als reine Verbraucherprodukte eingestuft hat, wird kein sogenannter Auftragsverarbeitungsvertrag angeboten – selbst die hochpreisige „Max“-Variante für 100 Dollar bietet keine entsprechende Absicherung.Eine DSGVO-konforme Nutzung ist erst ab dem „Team-Plan“ möglich, der jedoch eine Mindestabnahme für fünf Personen erfordert und somit eine bezahlbare Lösung für Solo-Selbstständige vermissen lässt. Einzelunternehmer und Blogger können auch mit Claude in die Datenschutz-Problematik hineinlaufen, da die Eingabe von Kundendaten, E-Mail-Adressen oder sensiblen Kommentaren ohne die notwendige Vertragsgrundlage einen Datenschutzverstoß darstellt. Vielleicht ist das für mich nur ein Randthema, weil ich Claude eh nicht auf diese Daten loslassen möchte. Und ich möchte auch nochmals betonen: Die anderen US-Anbieter bieten diesbezüglich keine Alternativen an.
Besser, aber kein Gut-Konzern: Wer wirklich hinter Anthropic steckt
Anthropic ist mir erst einmal sympathisch, aber … Hinter Anthropic — dem Unternehmen, das Claude entwickelt — steht ein bemerkenswert breites Investorenfeld: Amazon hat bis zu vier Milliarden Dollar investiert und ist damit einer der größten externen Geldgeber, Google hält rund 14 bis 15 Prozent der Anteile, und auch Microsoft und Nvidia sind seit November 2025 mit bis zu 15 Milliarden Dollar an Bord — dazu kommen Staatsfonds wie der Qatar Investment Authority, der singapurische GIC und das Abu Dhabi-Vehikel MGX, sowie klassische VC-Größen wie Sequoia Capital, Founders Fund und General Catalyst.An der Spitze steht CEO Dario Amodei, der das Unternehmen 2021 gemeinsam mit seiner Schwester Daniela gründete, nachdem er als Forschungsdirektor OpenAI verlassen hatte — explizit weil er das Microsoft-Großinvestment dort ablehnte und einen stärkeren Fokus auf KI-Sicherheit anstrebte; Anfang 2026 wird Anthropic mit 380 Milliarden Dollar bewertet, nachdem das Unternehmen insgesamt 67,3 Milliarden Dollar eingesammelt hat.
Fazit: Ein nützliches Werkzeug — kein Heilsversprechen
Dieser Beitrag war ein langer Ritt — vom persönlichen Alltagstest über den Konflikt mit dem Pentagon bis hin zu Investorenstruktur und DSGVO-Realität. Und das Fazit fällt entsprechend differenziert aus. Machen wir uns nichts vor: Anthropic ist kein Gut-Konzern. Wer Amazon, Google, Microsoft, Nvidia und arabische Staatsfonds auf der Investorenliste hat und Geschäfte mit dem US-Verteidigungsministerium macht, kann sich nicht ernsthaft als ethische Alternative vermarkten — auch wenn das Pentagon-Narrativ für Schlagzeilen gesorgt hat. Vielleicht ist Anthropic etwas weniger schlimm als die anderen US-KI-Giganten, auch beim Thema DSGVO, aber das ist eine niedrige Messlatte.Was mich persönlich überzeugt hat, ist das Werkzeug selbst: Claude leistet beim Texte erstellen, analysieren und korrigieren zuverlässig gute Arbeit, die Integration mit WordPress.com funktioniert beeindruckend gut — von der Textproduktion über den Redaktionsplan bis zur Pflege von Kategorien und Tags. Und ja, mir fallen durchaus viele Agenten-Szenarien ein, die mir lästige Routinearbeiten abnehmen könnten. Aber hier werde ich größte Sorgfalt walten lassen: Claude Cowork bekommt keinen Vollzugriff auf meine Daten, und ich werde meinen Rechner auch nicht fernsteuern lassen. Dafür bin ich schlicht noch zu misstrauisch — und das halte ich für eine gesunde Haltung.
In den kommenden Wochen werde ich weiter mit Claude arbeiten. Ob das Tool für einen einzelnen Blogger wirklich die richtige Wahl ist, steht für mich noch nicht fest. Es ist wohl eher für Teams geeignet, Funktional: vielleicht ja. Vom Preis her, spätestens wenn die Token-Limits und Session-Beschränkungen zuschlagen: eher fraglich. Die Antwort darauf werde ich euch erst einmal schuldig bleiben.
PS: Nicht angeschaut habe ich mir Claude for Chrome — schlicht deshalb, weil ich seit Jahren keinen Chrome-Browser nutze. Da scheint es interessante Optionen zu geben, relevante Quellen zu sammeln und zu einem Dokument oder Blogbeitrag zu konsolidieren. Und noch eine Lücke in meinem Test: Claude Code, das Werkzeug für Entwicklerinnen und Entwickler, habe ich mir erst gar nicht angeschaut — Programmieren ist (zumindest derzeit und wahrscheinlich nie) meine Welt.
Hintergrundpräsentation
Hier noch eine Hintergrundpräsentation, die auf Basis meiner Quellen erstellt wurde:The_Agentic_ShiftHerunterladen
#allgemein #Bloggen #chatgpt #Claude #Datenschutz #DSGVO #KI #KIAgenten #Trump #USA #WirtschaftNumber of AI chatbots ignoring human instructions increasing, study says
Exclusive: Research finds sharp rise in models evading safeguards and destroying emails without permissionRobert Booth (the Guardian)
StefanPfeiffer.Blog
in reply to StefanPfeiffer.Blog • • •Anthropic ist auch nach unserer Podcast-Aufnahme weiter in den Schlagzeilen geblieben — und zwar gleich auf mehreren Fronten.Mythos: Zu gefährlich für die Öffentlichkeit, gut genug für die US-Regierung
Während Anthropic das neue KI-Modell „Mythos“ aus Sicherheitsgründen nur ausgewählten Kunden zur Verfügung stellt, bereitet die US-Regierung laut Manager Magazin intern den Einsatz in Bundesbehörden vor — von Verteidigungs- über Finanz- bis hin zum Justizministerium. Das Paradox ist kaum zu übersehen: Eine KI, die als zu gefährlich für die breite Öffentlichkeit gilt, soll ausgerechnet in den sensibelsten Behörden des Landes eingesetzt werden.Annäherung nach Streit: Amodei trifft die US-Regierung
Nach monatelangem Konflikt — ausgelöst durch Anthro
... Show more...Anthropic ist auch nach unserer Podcast-Aufnahme weiter in den Schlagzeilen geblieben — und zwar gleich auf mehreren Fronten.Mythos: Zu gefährlich für die Öffentlichkeit, gut genug für die US-Regierung
Während Anthropic das neue KI-Modell „Mythos“ aus Sicherheitsgründen nur ausgewählten Kunden zur Verfügung stellt, bereitet die US-Regierung laut Manager Magazin intern den Einsatz in Bundesbehörden vor — von Verteidigungs- über Finanz- bis hin zum Justizministerium. Das Paradox ist kaum zu übersehen: Eine KI, die als zu gefährlich für die breite Öffentlichkeit gilt, soll ausgerechnet in den sensibelsten Behörden des Landes eingesetzt werden.Annäherung nach Streit: Amodei trifft die US-Regierung
Nach monatelangem Konflikt — ausgelöst durch Anthropics Weigerung, dem Militär seine KI für autonome Waffen und Überwachung zur Verfügung zu stellen — haben sich Dario Amodei und Vertreter des Weißen Hauses erstmals wieder zusammengesetzt. Laut Handelsblatt bezeichneten beide Seiten das Treffen als „produktiv“ — wobei offen bleibt, was das konkret bedeutet, wenn kurz zuvor Trump per Social-Media-Post alle Bundesbehörden zur Nutzung von Anthropic-KI gesperrt hatte.Claude Design: Wenn KI die Designbranche einholt
Mit Claude Design hat Anthropic ein Tool gestartet, das per Textbeschreibung Prototypen, Slides und One-Pager erzeugt — und sich dabei Canva als Partner statt als Konkurrenten sichert. Jörg Schieb bringt es auf schieb.de auf den Punkt: Claude Design löst nicht die kreative Arbeit, sondern die mechanische Arbeit drumherum — und Figmas Aktie hat am Launchtag prompt sieben Prozent abgegeben.
Claude Design: Der Moment, in dem KI das Grafikdesign einholt - Jörg Schieb | Digital und KI
Jörg Schieb (Jörg Schieb | Digital und KI)StefanPfeiffer.Blog
in reply to StefanPfeiffer.Blog • • •Anthropics „gefährliche“ KI Mythos: Unbefugte mit Zugriff seit dem ersten Tag
Martin Holland (heise online)Thelias
in reply to StefanPfeiffer.Blog • •