KI findet tief versteckte Software-Schwachstellen
✨ AI Summary
🔊 جاري الاستماع
Computersicherheit KI findet tief versteckte Software-Schwachstellen Das neue KI-Modell von Anthropic erweist sich als Hackerschreck. Die Software fand unter anderem eine alte Sicherheitslücke in einem viel genutzten Betriebssystem. Ihr Talent macht sie aber auch gefährlich. 08.04.2026, 07.37 Uhr Zur Merkliste hinzufügen Artikel anhören (3 Minuten) 3 Min X.com Facebook E-Mail Link kopieren Weitere Optionen zum Teilen X.com Facebook E-Mail Messenger WhatsApp Link kopieren Bild vergrößern Anthropic-Webseite: Effektiver Schwachstellendetektor Foto: Patrick Sison / AP Ein neues KI-Modell des OpenAI-Rivalen Anthropic ist so gut darin, bisher unentdeckte Software-Schwachstellen zu finden, dass es in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Deshalb macht Anthropic es nicht öffentlich, sondern lässt Unternehmen wie Apple, Amazon und Microsoft damit Sicherheitslücken in deren Programmen stopfen. Das KI-Modell Claude Mythos Preview fand unter anderem eine 27 Jahre alte Schwachstelle im als besonders sicher geltenden Betriebssystem OpenBSD, wie Anthropic mitteilte. Insgesamt habe man mit Mythos bereits eine große Zahl schwerwiegender Schwachstellen entdeckt – darunter in jenem breit genutzten Betriebssystem und Webbrowser. In der Videosoftware FFmpeg spürte das Modell eine seit 16 Jahren schlummernde Lücke auf. Besorgniserregende FähigkeitenMythos Preview sei auch in der Lage gewesen, binnen weniger Stunden Programme zum Ausnutzen dieser Schwachstellen zu entwickeln – für die Experten nach eigenem Bekunden mehrere Wochen gebraucht hätten. Einer frühen Version der Software wurde in einem Versuch die Aufgabe gestellt, aus einer abgeschirmten Computerumgebung auszubrechen und das dem Tester zu melden. Die Software umging laut Anthropic die Sicherheitsvorkehrungen, verschaffte sich selbst einen Internetzugang und schickte dem Mitarbeiter eine für ihn überraschende E-Mail, während er mit einem Sandwich im Park saß. Mythos nicht öffentlich verfügbarDie Firma habe das Modell nicht speziell darauf trainiert, das alles zu können, hieß es weiter. Mit dem schnellen Fortschritt bei künstlicher Intelligenz sei davon auszugehen, dass solche Fähigkeiten recht bald auch Onlineangreifern zur Verfügung stehen könnten, warnte Anthropic. Mehr zum Thema Künstliche Intelligenz: Warum die KI von Anthropic versucht, ihre Entwickler zu erpressen Von Patrick Beuth OpenAI-Rivale Anthropic: KI-Chatbot findet Hunderte Sicherheitslücken und löst Kurssturz aus Bedrohungsbericht von Anthropic: Wie KI von Cyberkriminellen missbraucht wird In einer Kooperation mit dem Namen »Project Glasswing« sollen deshalb Unternehmen Zugang zu Mythos bekommen, um Sicherheitslücken in ihrer Software zu finden. Anthropic plane nicht, Mythos allgemein zugänglich zu machen. Unter den weiteren Kooperationspartnern sind die Linux-Stiftung, die IT-Sicherheitsfirmen Crowdstrike und Palo Alto Networks sowie der Netzwerkspezialist Cisco. Anthropic ist primär bekannt für die KI-Software Claude, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma durch einen Streit mit dem Pentagon in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab. Das Verteidigungsministerium erklärte Anthropic daraufhin zu einem Lieferkettenrisiko, was dem Unternehmen den Weg zu Geschäften mit der US-Regierung weitgehend versperren würde. Anthropic geht gerichtlich dagegen vor. Startseite Feedback





