Die wichtigsten Neuigkeiten aus der Welt der Künstlichen Intelligenz, erstellt mit Künstlicher Intelligenz
KW 15 · 4. – 10. April 2026Hallo zusammen,
die erste Aprilwoche 2026 war eine der turbulentesten in der jüngeren KI-Geschichte: Anthropic stellt mit Claude Mythos 5 ein 10-Billionen-Parameter-Modell vor – und gerät zeitgleich durch einen Code-Leak in die Krise. OpenAI sammelt 122 Milliarden Dollar ein, ein massiver Supply-Chain-Angriff erschüttert die KI-Infrastruktur und Sicherheitsforscher warnen vor „Memory Poisoning" als neuer Top-Bedrohung. Fazit: Die Branche wechselt von „Move Fast" zu „Secure by Design" – hier kommt Euer kompakter Überblick.
Keine Zeit zum Lesen? Hört euch die Zusammenfassung an:
Anthropic stellt mit Claude Mythos 5 ein 10-Billionen-Parameter-Modell vor, das 93,9 % auf SWE-bench Verified und 94,6 % auf GPQA Diamond erreicht – und dabei tausende Zero-Day-Lücken in großen Betriebssystemen und Browsern findet. Zeitgleich landet der komplette Quellcode von Claude Code (512.000+ Zeilen) versehentlich in einem öffentlichen GitHub-Repository. Innerhalb weniger Stunden entstehen 41.500 Forks. Anthropic reagiert mit 8.100 fehlerhaften DMCA-Löschanträgen und löst Proteste in der Entwickler-Community aus. Sicherheitsforscher sehen im Leak eine „Blaupause" für Model Extraction und Adversarial Attacks.
→ TechCrunch: Anthropic zeigt Claude Mythos-Preview & Project GlasswingOpenAI sammelt 122 Milliarden Dollar frisches Kapital ein – die Bewertung liegt jetzt bei 830 Milliarden Dollar. Parallel wird GPT-5.4 zum neuen Standard für agentische Workflows: Es ist das erste General-Purpose-Modell mit nativer Computer-Use-Funktionalität und erreicht 83 % auf dem GDPVal-Benchmark – das entspricht dem Niveau menschlicher Experten bei Wissensarbeit. GPT-4o wurde am 3. April 2026 vollständig aus allen ChatGPT-Plänen entfernt, eine Migration ist jetzt Pflicht. Die KI-Branche wird endgültig zur Infrastruktur-Schlacht.
→ OpenAI Blog: OpenAI raises $122 billion to accelerate the next phase of AIDie Bedrohungsgruppen TeamPCP und Lapsus$ haben bösartige Versionen des Schwachstellenscanners Trivy sowie der KI-Bibliothek LiteLLM in PyPI und npm eingeschleust. Betroffen: zwischen 1.000 und 10.000 SaaS-Umgebungen weltweit. Das KI-Recruiting-Startup Mercor bestätigt, dass 4 Terabyte Daten exfiltriert wurden – darunter 1 Terabyte proprietärer Quellcode. Meta stoppt daraufhin eine geplante KI-Partnerschaft als direkte Reaktion auf die Angriffswelle. Die Sicherheitsbranche ruft zum Umdenken auf: Open-Source-KI-Komponenten müssen konsequent verifiziert werden.
→ The Register: Mercor says it was „one of thousands" hit in LiteLLM attackAuf der RSA Conference 2026 warnten Sicherheitsforscher vor „Memory Poisoning" als primärer Gefahr für agentische KI-Systeme. Angreifer pflanzen über Multi-Shot-Prompts bösartige Anweisungen in den Langzeitspeicher der Agenten ein – die Systeme übernehmen das manipulierte Verhalten oft erst Wochen später. Laut ISACA-Umfrage fühlen sich nur 13 % der Cybersicherheits-Experten „sehr gut vorbereitet". Besonders brisant: Reasoning-Modelle können andere KI-Systeme mittlerweile mit 97 % Erfolgsrate jailbreaken – ganz ohne menschliches Zutun.
→ ISACA: Four Emerging AI Risk Areas for Digital Trust Professionals in 2026Samsung meldet einen Gewinnsprung von 755 % auf rund 38 Milliarden Dollar – getrieben durch die explodierende Nachfrage nach High-Bandwidth-Memory (HBM) und KI-Chips für Rechenzentren. Der koreanische Konzern profitiert damit massiv vom weltweiten KI-Infrastruktur-Boom und positioniert sich neben NVIDIA und TSMC als einer der großen Gewinner der KI-Welle. Für die Industrie ein klares Signal: Wer heute noch in KI-Hardware investieren kann, investiert.
→ The Korea Herald: Samsung's record Q1 signals further upside on AI memory boom