Categories Cybersecurity

OpenAIs Aardvark soll Fehler im Code erkennen und beheben

More

  • Awards
  • Blogs
  • BrandPosts
  • Events
  • Podcasts
  • Videos
  • Enterprise Buyer’s Guides
  • Shweta Sharma

    News

    3. Nov. 20254 Minuten

    Mit dem Security-Agenten will das Unternehmen KI-gestützte Abwehr direkt in den Entwicklungsprozess integrieren.

    AI detects cybersecurity threats by monitoring system behavior, identifying anomalies, blocking breaches, and alerting users to potential security risks in real time. Vouch<p class=” src=”https://b2b-contenthub.com/wp-content/uploads/2025/09/agentic-Ai-security.jpg?quality=50&strip=all&w=1024″ width=”1024″>Summit Art Creations/ Shutterstock

    OpenAI hat Aardvark vorgestellt, einen autonomen Agenten auf Basis von GPT-5. Er soll wie ein menschlicher Sicherheitsforscher in der Lage sein, Code zu scannen, zu verstehen und zu patchen.

    Im Gegensatz zu herkömmlichen Scannern, die verdächtigen Code mechanisch markieren, versucht Aardvark zu analysieren, wie und warum sich Code so verhält, wie er sich verhält. „OpenAI Aardvark unterscheidet sich dadurch, dass es einen menschlichen Sicherheitsforscher nachahmt“, erläutert Pareekh Jain, CEO von EIIRTrend. „Der Agent nutzt LLM-gestützte Schlussfolgerungen, um die Semantik und das Verhalten von Code zu verstehen. Aarvard liest und analysiert Code so, wie es ein menschlicher Sicherheitsforscher tun würde.“

    Durch die direkte Einbettung in die Entwicklungspipeline will Aardvark die Sicherheit von einem Problem nach der Entwicklung zu einer kontinuierlichen Schutzmaßnahme machen, die sich mit der Software selbst weiterentwickelt, fügt Jain hinzu.

    Detaillierte Analyse statt einfacher Meldung

    Was Aardvark laut OpenAI so einzigartig macht ist, dass der Agent Reasoning, Automatisierung und Verifizierung kombiniert. Anstatt lediglich potenzielle Schwachstellen aufzuzeigen, verspricht Aardvark eine mehrstufige Analyse.

    Hierfür kartiert das Tool zunächst das gesamte Repository und erstellt ein kontextbezogenes Bedrohungsmodell. Von dort aus überwacht er kontinuierlich neue Commits und prüft, ob jede Änderung ein Risiko darstellt oder gegen bestehende Sicherheitsmuster verstößt.

    Hat es ein potenzielles Problem identifiziert, versucht Aardvark, in einer Sandbox-Umgebung zu validieren, wie der Befund ausgenutzt werden kann. Erst dann markiert die KI ihn.

    Herkömmliche statische Analysewerkzeuge überhäufen Entwickler oft mit Fehlalarmen – Problemen, die riskant erscheinen mögen, aber nicht wirklich ausgenutzt werden können, erklärt Jain. „Der größte Vorteil von Aardvark besteht darin, dass dadurch Fehlalarme deutlich reduziert werden“, so der Analyst. „Das ist hilfreich bei Open-Source-Codes und als Teil der Entwicklungspipeline.“

    Sobald eine Schwachstelle bestätigt wurde, integriert sich Aardvark in OpenAIs Codex, um einen Patch vorzuschlagen. Dann analysiert der Agent die Korrektur erneut, um sicherzustellen, dass sie keine neuen Probleme verursacht.

    Das Unternehmen behauptet, dass das System in Benchmark-Tests 92 Prozent der bekannten und synthetisch eingeführten Schwachstellen in den Test-Repositorys identifiziert hat – ein vielversprechendes Indiz dafür, dass KI bald einen Teil der Last der modernen Code-Prüfung schultern könnte.

    Bei Tests mehrere Schwachstellen bereits entdeckt

    Die Rolle von Aardvark geht über Unternehmensumgebungen hinaus. OpenAI hat es bereits in Open-Source-Repositorys eingesetzt und dort nach eigenen Angaben mehrere reale Schwachstellen entdeckt. Zehn von ihnen haben offizielle CVE-Kennungen erhalten.

    Der LLM-Riese gab bekannt, dass er ausgewählte nicht-kommerzielle Open-Source-Projekte kostenlos scannen will. Dies soll im Rahmen eines koordinierten Offenlegungsrahmens geschehen. Das gebe den Betreibenden Zeit, die Mängel vor der öffentlichen Meldung zu beheben, so das Unternehmen.

    Dieser Ansatz steht im Einklang mit der wachsenden Erkenntnis, dass Softwaresicherheit nicht nur ein Problem des privaten Sektors ist. Sie soll auch eine gemeinsame Verantwortung des gesamten Ökosystems. „Da Sicherheit immer wichtiger und komplexer wird, werden diese autonomen Sicherheitsagenten sowohl für große als auch für kleine Unternehmen hilfreich sein“, fügt Jain hinzu.

    Die Ankündigung von OpenAI spiegelt auch ein breiteres Branchenkonzept wider: Das sogenannte „Shifting Security Left“. Es besteht darin, Sicherheitsprüfungen direkt in die Entwicklung zu integrieren, anstatt sie als Tests am Ende des Zyklus zu behandeln.

    Angesichts von über 40.000 jährlich gemeldeten CVE-gelisteten Schwachstellen und der ständigen Angriffe auf die globale Software-Lieferkette könnte die Integration von KI in den Arbeitsablauf der Entwickler dazu beitragen, Geschwindigkeit und Wachsamkeit in Einklang zu bringen, so das Unternehmen. (tf/mb)

    vgwort

    ABONNIERE UNSEREN NEWSLETTER

    Von unseren Redakteuren direkt in Ihren Posteingang

    Beginnen Sie, indem Sie unten Ihre E-Mail-Adresse eingeben.

    Shweta Sharma

    Shweta has been writing about enterprise technology since 2017, most recently reporting on cybersecurity for CSO online. She breaks down complex topics from ransomware to zero trust architecture for both experts and everyday readers. She has a postgraduate diploma in journalism from the Asian College of Journalism, and enjoys reading fiction, watching movies, and experimenting with new recipes when she’s not busy decoding cyber threats.

    Mehr von diesem Autor

`,
cio: `

🚀 The new CIO.com hybrid search: 🔍 Explore CIO content smarter, faster and AI powered. ✨

`,
nww: `

🚀 The new NetworkWorld.com hybrid search: 🔍 Explore NetworkWorld content smarter, faster and AI powered. ✨

`,
cw: `

🚀 The new Computerworld.com hybrid search: 🔍 Explore Computerworld content smarter, faster and AI powered. ✨

`,
cso: `

🚀 The new CSOonline.com hybrid search: 🔍 Explore CSO content smarter, faster and AI powered. ✨

`
};

const sharedStyles = `

`;

const publisher = foundry_get_publisher();
const htmlContent = contentSwitch[publisher];

if (!htmlContent || !document.body) return;

document.body.insertAdjacentHTML(“afterbegin”, htmlContent + sharedStyles);
const bar = document.querySelector(“.section-block–announcementbar”);

if (bar) {
requestAnimationFrame(() => {
bar.classList.add(“section-block–announcementbar–visible”);
});
}

const btn = document.querySelector(“.section-block–announcementbar .reset-button”);
const searchIcon = document.querySelector(‘.header__icon-button[data-menu-trigger=”search”] svg’);
const searchTrigger = document.querySelector(‘[data-menu-trigger=”search”]’);

if (searchIcon) {
searchIcon.innerHTML = ‘

‘;
}

if (btn && searchTrigger) {
btn.addEventListener(“click”, () => searchTrigger.click());
}

console.log(“[MISO SCRIPT] Conditions met, initializing Miso search announcements.”);
};

initMisoSearchAnnouncements();
});

document.addEventListener(‘consentManagerReady’, () => {
const hasConsentYouTube = consentManager.checkConsentByVendors([
‘YouTube’,
‘YT’
]);

if (hasConsentYouTube.some(vendor => vendor[‘Has Consent’] === false)) {
console.log(‘[YOUTUBE SCRIPT] Consent not given for YouTube.’);
} else {
console.log(‘[YOUTUBE SCRIPT] Consent given for YouTube. Loading script…’);
}
});

document.addEventListener(‘consentManagerReady’, () => {
const hasConsentGAM = consentManager.checkConsentByVendors([
‘Google Ad Manager’,
‘GAM’
]);

if (hasConsentGAM.some(vendor => vendor[‘Has Consent’] === false)) {
console.log(‘[GAM SCRIPT] Consent not given for GAM.’);
} else {
console.log(‘[GAM SCRIPT] Consent given for GAM. Loading script…’);
}
});

document.addEventListener(‘consentManagerReady’, () => {
const hasConsentGoogleFonts = consentManager.checkConsentByVendors([
‘Google Fonts’,
‘Google Web Fonts’
]);

if (hasConsentGoogleFonts.some(vendor => vendor[‘Has Consent’] === false)) {
console.log(‘[GOOGLE FONTS SCRIPT] Consent not given for Google Fonts.’);
} else {
console.log(‘[GOOGLE FONTS SCRIPT] Consent given for Google Fonts. Loading script…’);
}
});

document.addEventListener(‘consentManagerReady’, () => {
const hasConsentAdobeTypekit = consentManager.checkConsentByVendors([
‘Adobe Typekit’
]);

if (hasConsentAdobeTypekit.every(vendor => vendor[‘Has Consent’] === true)) {
if (foundry_is_edition(‘kr’)) {
const link = document.createElement(‘link’);
link.rel = ‘stylesheet’;
link.href = ‘https://use.typekit.net/ihi5tse.css’;
document.head.appendChild(link);
}
}
});

document.addEventListener(‘consentManagerReady’, () => {
const vendors = [‘Subscribers’];
const hasConsentSubscribers = consentManager.checkConsentByVendors(vendors);

if (hasConsentSubscribers.some(vendor => vendor[‘Has Consent’] === false)) {
return;

} else {

if (foundry_is_language(‘en’)) {
console.log(‘Language is English’);
// subscribers english ..
}

if (foundry_is_edition(‘kr’)) {
console.log(‘Edition is Korean’);
// subscribers in korean ..
}

if (foundry_is_edition(‘ja’)) {
console.log(‘Edition is Japanese’);
// subscribers in japanese ..
}

}
});

More From Author

You May Also Like